01 当今IT圈最火的莫过人工智能,什么O2O,移动互联......都变做昨日黄花,人工智能的有关报道一遍遍挑战人类的认知,deepmind的阿尔法GO完胜人类,人工智能打败德州扑克冠军团队,OpenAI人工智能1v1击败Dota2最强玩家,微软的小冰每日可以写诗上万首,IBM的沃森在医疗领域独领风骚...... 这一切看似像洪水猛兽,不可阻挡。 面对人工智能的当下,我们又给怎样....
01 技术突飞猛进
深度学习最令人惊讶的地方是它相当得简单。十年前,没有人会想到通过,使用梯度下降训练的参数模型能够让我们在机器感知方面得到如此惊人的成果。现在,事实证明,你唯一需要的,是使用足够多的实例来进行梯度下降训练,并获得足够大的参数模型。
费曼曾经这么描述宇宙:“它并不复杂,只是包含了太多的东西”。
在深度学习中,一切都是向量,一切都是几何空间中的一个点。模型输入(它可以是文本,图像等等)和目标首先会被“向量化”,例如转换成某种初始输入向量空间和目标向量空间。
将这种复杂的几何变换应用到输入数据的整个过程,可以想象成是一个试图将纸球弄平的人:皱巴巴的纸球是各种各种样的输入数据。而人抚平纸球的每个动作类似于每一层的简单几何变换。而抚平纸球的手势就是整个模型的复杂变换。深度学习模型是用于解决高维度数据复杂流形的数学机器。
这就是深度学习的魔力:将意念转化为向量,转化为几何空间,然后逐步学习将一个空间映射到另一个空间的复杂几何变换。
02 局限性
局部泛化与极端泛化
深度学习模型在输入与输出之间所做的几何变换,与人类思考学习的方式之间似乎存在着本质的区别。人类在亲身体验中学习,而不是在训练中学习。除了学习过程不同之外,潜在的表现性质也存在着本质区别。
人类的能力并不只是将即时刺激映射成即时反应,就像深度网络或者昆虫那样。
当前的DNN网络和人类生物意义的神经网络还是差距甚远,神经学科学家们也无法弄清人类大脑的思考机制,所以通过机器运算和向量的变化还无法达到人类真正的思考底部。
简而言之,尽管我们在机器感知方面取得了进步,但我们离人类级别的AI还很远:我们的模型只能执行局部泛化,适应与过去数据非常接近的新情况。而人类认知能够极端泛化,迅速适应各种新的情况。
03 结论
迄今为止,深度学习唯一真正的成功之处,是在给出了大量的人为标注数据之后,使用连续的几何变换将空间X映射到空间Y。 做好这一切,是每个行业游戏制定者必备的能力,但对于人类级别的AI,仍然有很长的路要走。
本篇内容大部分摘自 Francois Chollet (keras之父)的blog。