深度学习真的是让AI更像人类的必经之路吗?

深度学习正在为AI业界带来震荡。微软的Eric Horvitz与Facebook的Yann LeCun解释了为何这种机器学习会如此激动人心。

如今的人工智能热潮会最终冷却为另一个AI寒冬吗?该领域的两位杰出专家——Eric Horvitz与Yann LeCun不这么认为。微软研究实验室Horvitz如此说:「人们不清楚机器智能会发展得多快。我自己也并不确定。但我认为我们很快就会有一些非常有价值的进展了。」

Horvitz指出了两个将AI带到如今地位的「核心进展」。第一个是「概率革命」,也就是说,从逻辑推理到不确定推理的转变。这种发展「站在了包括统计学、运筹学以及概率决策科学的肩膀之上,」Horvitz在《MIT科技评论》近期举办的前沿科技大会上(EmTech)上如此说道。

然而,Horvitz所说的第二个核心进展才是真正能够引起公司CIO们共鸣的那一个,他们应该意识到了科技进步所带来的AI振兴与大数据热潮的相似之处。他说道:「第二个正是机器学习的革命,但它的驱动力是我们对几乎无限大的数据储存能力的追求,以及互联网的普遍性和连接性所带来的巨量数据源。而这一点再加上计算能力,触发了机器学习的复兴,并由此成为了AI的中流砥柱。」

对AI中某个正热的领域来说,这一点尤其正确,这个领域就是深度学习。深度学习是一种机器学习,据一些支持者描述,它与人类处理信息的方式类似。Yann LeCun正是这一领域的佼佼者,他是纽约大学的教授,也是Facebook人工智能研究的主管。他深度学习形容为一种古老的想法(可以追溯回1950年代),但由于技术进步正处于复兴阶段。他特别指出经过深度学习系统有效的训练和教导,机器可以处理大数据集。他还提到了图像处理单元(GPUs),「它们是高度平行的——大部分新芯片都有着2000个核。」LeCun在EmTech上说道。

但是深度学习也并不总是被高看一等,LeCun比任何人都了解这一点。

神经网络的降临

在1990 年代,LeCun为一种叫做卷积神经网络的深度学习类型带来了浓墨重彩的一笔,这种深度学习受到了大脑视觉皮层的启发。卷积神经网络(convnets)在各层中处理数据,识别图像或文字。一开始,它在最底层的非结构化数据中识别最基本的特征,并将其传导至最高层,在那里数据被重新构筑,最终进行识别。25年前,在AT&T 贝尔实验室工作的时候,LeCun建立了一个神经网络,可以识别手写的数字。这种技术后来被证明非常成功。银行完善了这种技术,并用于在ATM机的支票存款中。

然而,卷积神经网络受到关注的时间短暂而过。「机器学习学界已经远离了它。他们并不相信这个想法有什么用。」LeCun说道,并最终导致了他所称为的「神经网络的二次死亡」,第一次出现在20世纪60年代,当时包括MIT的Marvin Minsky在内的研究人员「展示了当时人们所用的方法的局限性」。

原来,创造一个强大的神经网络需要添加更多处理层级,但是正如Minsky所指出的那样,20世纪60年代的科技还未发展到这一步。到80年代,研究者们仍然被技术水平所桎梏。LeCun说:「人们过去仅仅能训练两到三个神经层,因为那是我们的机器最大的承载能力了,原因是数据库很小。如果你尝试从过少的数据中造出庞大的神经网络,效果不会很好的。」

在这样的情况下,神经网络只能死记硬背,不会得到任何有意义的结果。一个例外是LeCun针对手写文字的卷积神经网络,它有着五到七个神经层。但是到了90年代,神经网络的概念失去了支持,一同失去的还有卷积神经网络的前景。

破纪录

在今年早些时候的采访中,Facebook的Yann LeCun告诉《IEEE Spectrum》的Lee Gomes「尽管深度学习从生物学中得到了启发,但它距离真正的大脑还很遥远。把它描述为很像大脑是一种虚幻飘渺的说法,也很危险。它会导致夸大其辞;人们会说出并不正确的事情。AI经历了许多凛冬,正是因为人们宣称了一些他们无法做到的事情。」

「人们不相信只要增加了神经层它就会起效。」他说道,「部分是因为错误的数学直觉。」

在最近五年,为神经网络添加多层(10个或更多)已经成为了标准,显著改变了这种技术的效果,以及工业界对此的观点。在今天,「智能手机上的每一个语音识别系统都使用了深度学习」,他指出。它还极大改变了计算机视觉领域——人类视觉的机器版本。

LeCun说:「在一年的时间内,整个图像识别的计算机视觉业界就转向了卷积网络。在我30年的研究生涯里,我从未见过如此风卷残云般席卷世界的科技。」

AI的未来离不开人类的辅助

谷歌、Facebook与其他科技大亨现在正竞相将这种技术应用于产品当中,这个领域正炙手可热。在这个故事的第二个部分,Search CIO资深新闻作家Nicole Laskowski解开了AI专家Yann LeCun与EricHorvitz的看法。

与微软、IBM和谷歌一样,Facebook也把手里的赌注压在了深度学习、神经网络和自然语言处理上。Facebook在致力于加快这些机器学习类型的进步,并雇一个深度学习和神经网络的权威专家,建立自己的新人工智能实验室。与之带来便是Facebook的数字私人助理M,于几个月前推出以选择用户。

今天,M的AI科技由人类助理所支持,后者负责监视M是如何回应请求(例如带走请求与预定请求)并在需要的时候插足。根据Wire的一篇文章,AI-人类系统帮助Facebook建立了一个模型:当人类助理插足一个任务时,他们的处理会被记录下来,为AI系统创造有价值的数据。

一旦有了足够的正确数据,M将会建立神经网络,而这正是LeCun的团队所涉及的部分。但即使M的AI发展到神经网络,人类还是将会陷入继续训练科技的循环里。

长路漫漫

这是因为M像大部分当代的AI系统一样,是一种监督学习系统,意味着系统无法自己教导自己。反之,如果LeCun想要一个识别狗的算法,他必须要给它足够的狗相貌的样品——很多很多的样品。「你需要重复上百万次。」LeCun在EmTech上说道。「但是,当然了,人类不想要这样。我们通过观察世界学习。我们发现世界是三维的,物体独立运动。我们希望机器也可以如此,但我们没有足够强大的科技支撑。」

他指出,创造一个有着人类常识的机器,对AI的未来是一个巨大挑战。「我们没有好的方法,但依然要解决问题,而这就是非监督式学习。」

Facebook尝试为AI系统嵌入初步推理的方法是向量嵌入,非结构化数据可以以此转变为一个详细描述文本与目标的数列。LeCun说,这个过程将知觉、推理、观点与语言能力整合在一起,如果算法碰到了不熟悉的文字与图像,它可以将未知和已知的数学描述进行比较和对比,从而进行合理的推测。关于向量嵌入在语言翻译中如何起作用,他有一个最清晰的解释是:「我们拿出两段文本,一种法语,一种英语,并找出它们是否在说一件事。」

Facebook并不是唯一采用这种方法提升AI的公司。谷歌也在尝试用「思维向量」作为训练计算机理解语言的方式,但目前他们还无法做到。

AI未来

但是,理解语言距离机器能完成与人类一样的智力任务还很遥远。LeCun说,发展一个常识项目(也就是所谓的「通用人工智能」),仍然有很长的路要走。

LeCun说:「我们能想到的最好的训练方法就是让它们观看足够数量的录像。预测对智能来说至关重要,也是我们正在做的事情。」

科幻电影如《她》和《机器姬》会给我们带来这样的印象,AI的未来是有意识的机器,但是LeCun与Horvitz认为泛化智能是一个艰巨的任务。「我们甚至都不知道如何思考这个问题。我的确认为,在这条通往智能的道路上,经过长期的努力,我们将拥有能胜任很多工作的新机器,并且,这种能力可被看做是意识。」

Horvitz所致力解决的障碍之一是典型的IT问题:AI科技基本上是各自为政,为了让系统更加强大,它们需要结合在一起。「当我说我们试着建立一个整体比各部分之和更好的系统,我们有时候会发现我们将例如语言与视觉之类整合在一起时,能力会有大幅提升。」Horvitz(与他的妻子一起)最近在斯坦福大学推出了人工智能的百年研究,也是针对AI影响的跨学科研究。

AI究竟该如何整合仍然在有待商榷,「但是我很确定AI的下一步跨越将会来自于这些整合措施。」Horvitz说道。破坏独立性也许不如创造有意识的机器那样带感,但是它会导向Horvitz所说的「智能的大交响乐」壮丽景象。

他说道:「随着每一次的前进,尤其是机器学习和深度学习的进步,我们就有了更多的工具。这些工具是非常有趣的组成部分,我们可以将之添加到旧的部分中,并见证它们是如何散发出新的光芒。

机器之心,最专业的前沿科技媒体和产业服务平台,每日提供优质产业资讯与深度思考,欢迎关注微信公众号「机器之心」(almosthuman2014),或登录机器之心网站www.almosthuman.cn查看更多精彩内容。

相关推荐