《深度学习革命》作者:人们对AI概念的理解存在偏差
大数据文摘出品
编译:M、陈同学、蒋宝尚
人工智能发展到了今天,关于深度学习以及神经网络等学术名词人人都能说上两句。
但是,你真的理解这些概念么?
其实,人们对这些词语的很多理解都存在偏差。
对基本概念的误解必然导致对人工智能的错误解读。因此“杀手AI”、“机器人使我们过时”等话题便应运而生。
学习算法研究的先驱Sejnowski认为:坚持“AI终结论”观点的人忽视了计算机科学和神经科学领域中其他令人兴奋的可能性。这些人往往不明白人工智能接近人类智能后会发生什么。
近日,Sejnkowski接受了科技网站The Verge的访谈,在采访中Sejnkowski谈到了“深度学习”为何突然变得无处不在,它能做什么和不能做什么,以及如何看待对“深度学习”话题的炒作。
下面是访谈内容,请欣赏!
注:以下V代表The Verge,S代表Sejnowski
V: 首先,我想请教一下定义。现在人们普遍把“人工智能”,“神经网络”,“深度学习”和“机器学习”等词语交替使用。但这些是不同的东西,你能解释一下吗?
S: AI可以追溯到1956的美国,当时工程师们决定编写一个试图模仿人类智能的计算机程序。在AI中,一个新领域成长起来,称为机器学习。与AI中的传统方法不同,在机器学习中我们不是编写一个循序渐进的程序来做某事,而是收集大量关于我们想要理解的内容的数据。例如,你正在尝试识别对象,所以你收集大量与该对象有关的图像,然后通过机器学习自动地分析各种特征,并以此判断出一件东西是汽车而另一件是订书机。
机器学习是一个非常大的领域,并且可以追溯到很久以前,当时人们称之为“模式识别”,但算法在数学上变得更加广泛和复杂。在机器学习中是受大脑启发的神经网络,然后是深度学习。深度学习算法具有特定的体系结构,其中有许多多层网络。基本上,深度学习是机器学习的一部分,机器学习是人工智能的一部分。
V: 深度学习可以做哪些其他程序做不到的事情?
S: 编写程序非常耗费人力。在过去,计算机是如此之慢,内存非常昂贵,所以人们采用逻辑,这就是计算机的工作原理。这是他们处理信息的基本机器语言。当时计算机太慢了,而且计算成本很高。
但现在,计算越来越便宜,劳动力也越来越昂贵。而且计算成本变得如此低,以至于让计算机学习比让人类编写程序更有效率。这时,深度学习就可以开始解决以前在计算机视觉和翻译等领域没有人编写过程序的问题。
深度学习是计算密集型的,但只需编写一个程序,并通过提供不同的数据集,你就可以解决不同的问题。你不必是领域专家。因此,对于存在大量数据的任何事物,都有成千上万的应用程序。
V: “深度学习”现在似乎无处不在。它是如何变得如此流行的呢?
S: 我可以在历史上的特定时刻确定这一点,即2012年12月的NIPS会议,也是最大的AI会议。在那里,计算机科学家Geoff Hinton和他的两个研究生向大家展示了一个名为ImageNet的大数据集,包含10,000个类别和1000万个图像,并使用深度学习将分类错误减少20%。
以往在该数据集上,分类错误在一年内减少不到1%。而那一年的成果超过了20年的研究。
V: 深度学习的灵感来自大脑。那么这些领域——计算机科学和神经科学——如何协同工作呢?
S: 深度学习的灵感来自神经科学。最成功的深度学习网络是由Yann LeCun发明的卷积神经网络(CNN)。
如果你看一下CNN的架构,它不仅仅是包括很多单元,它们以一种模仿大脑的基本方式连接起来。仔细观察就会发现CNN结构里有和大脑中简单细胞和复杂细胞的对应的部分,而这些都直接来自我们对视觉系统的理解。
Yann没有盲目地试图复制皮质。他尝试了许多不同的变化,但他最终聚合的是那些自然聚合的变化。这是我们了解到的很重要的内容。自然与人工智能的融合有很多东西可以教给我们,在这方面我们有很长的路要走。
V: 我们对计算机科学的理解取决于我们对大脑的理解程度?
S: 我们目前的大部分AI都是基于60年代时对大脑的了解。我们现在了解的远不止此,所以将会有更多的知识被融入到架构中。
AlphaGo,击败Go冠军的程序不仅包括皮质模型,还包括大脑的一部分模型,称为基底神经节,这对于制定一系列决策来实现目标非常重要。有一种称为时序差分学习(temporal differences)的算法,由Richard Sutton在80年代开发,当与深度学习相结合时,能够胜任人类以前从未见过的非常复杂的游戏。
当我们了解大脑的结构时,当我们开始了解如何将它们集成到人工系统中时,它将提供越来越多的功能,超越我们现在的状态。
V: 人工智能也会影响神经科学吗?
S: 两个学科在分别做努力。创新神经技术已经取得了巨大的进步,从一次记录一个神经元到同时记录了数千个神经元,并且同时记录大脑的不同部分。这开辟了一个全新的世界。
人工智能与人类智能之间存在着一种趋同。我们越来越多地了解大脑如何工作,而这将反映在AI中。但与此同时,AI的研究者也创造了一整套学习理论,可用于理解大脑,让我们分析成千上万的神经元以及他们的活动是如何产生的。所以神经科学和人工智能之间存在这种反馈循环,我认为这更令人兴奋和重要。
V: 从自动驾驶汽车到交易,你觉得哪个区域最有趣?
S: 使我感到震撼的一个应用是生成对抗网络,或被称为GAN(generative adversarial networks)。使用传统的神经网络,你给出一个输入,你得到一个输出。而GAN能够在没有输入的情况下得到输出。
V: 他们真的会产生看似现实的新事物?
从某种意义上说,它们会产生内部活动。事实证明这是大脑运作的方式。你可以看到一些东西,然后你可以闭上眼睛,你可以开始想象那里没有的东西。你有一个视觉图像,当事情安静时,你会有想法。那是因为你的大脑是生成性的。现在,这种新型网络可以生成从未存在过的新模式。所以你可以给它,例如,数百张汽车图像,它会创建一个内部结构,这个结构可以生成从未存在的汽车的新图像,它们看起来完全像汽车。
V: 另一方面,你认为哪些想法可能会被过度炒作?
S: 没有人可以预测或想象这种新技术的引入会对未来的事物组织方式产生什么影响。当然,现在的确存在过度宣传。毕竟我们还没有解决真正困难的问题。人们说机器人即将取代我们,但事实是我们都还没有实现通用人工智能,而机器人远远落后于AI,因为事实证明人的身体比大脑更复杂。
我来举一个技术进步的例子:激光。它是在大约50年前发明的,当时激光可以布满整个房间。从激光布满一个房间到被做成讲课时用的激光笔,这需要50年的技术商业化。这个技术必须发展到你可以缩小激光并以五美元的价格买到它。同样的事情将发生在像自动驾驶汽车这样被热炒的技术上。我们不能说自动驾驶汽车到明年就会无处不在,10年也不一定做得到,甚至可能需要花费50年。但重点是,在此过程中技术会逐渐进步,这将使自动驾驶车辆更灵活,更安全,更兼容我们组织运输网络的方式。
炒作的错误在于人们对时间估计的错误,大家对技术的期待过多、过心急了。技术的发展急不得,但是它会在适当的时候达到我们的期待。
相关报道:
https://www.theverge.com/platform/amp/2018/10/16/17985168/deep-learning-revolution-terrence-sejnowski-artificial-intelligence-technology?from=singlemessage&isappinstalled=0