AI 技术讲座精选:仿生计算的未来——与人脑匹敌的计算机
【AI100 导读】随着人机大战的不断上演,我们有理由相信,未来的人工智能能够与人脑匹敌。是否有一天,人工智能可以完全代替人脑?答案不置可否,但是人工智能会给人类带来极大的便利,这一点是毋庸置疑的。
200多年前,一个名叫 Joseph Jacquard 的法国织工,发明了一种装置,该装置能够极大的简化纺织生产的过程。他设计了一系列的穿孔卡片,由这些孔我们便能找到针脚的位置。这种穿孔卡片取代了效率低下的绘图男孩,这些年轻的学徒所做的工作就是,小心翼翼地用纺织机来编织特定的图案。该设备是如此的成功,以至于人们在创造第一代计算机的时候,借鉴了该思想;在20世纪的大部分时间里,程序员们像织工一样,利用一个个穿孔来编写自己的代码。制作这些卡片会很繁琐,并且卡片本身也很脆弱。要编写的信息受纸质基材的限制,并用一种只有专家才能理解的语言对其进行编码。但是第一代计算机的继任者,使得人机交互变得更为自然与灵活。不可变的程序指令变成了“如果x, 则y。当a时,进行b。” 。在 Jacquard 的发明出现很久以后,到了现在,我们可以很容易地要求亚马逊的 Echo 帮我们煮一壶咖啡,或者让苹果的 Siri 找到最近的洗车点。为了能与机器更加自然地交互,我们尝试让机器来模仿我们。
在早期的人工智能研究当中,研究学者们碰到了所谓的莫拉维克悖论:对我们人类而言费力的事情(比如算数)对计算机来说很容易,然而对我们而言简单的事情(比如在一个嘈杂的酒吧里识别出朋友的声音)对人工智能来说却是最难掌握的。设计出一个能在基于规则的游戏(例如国际象棋)中击败人类的机器人,并不具有极大的挑战性;逻辑计算机能把逻辑做好。但工程师尚未开发出能够玩跳房子游戏的机器人。澳大利亚机器人专家 Hans Moravec 认为这可能和进化有关。由于我们是在最近才获得更高水平的推理能力(这大概花费了几十万年的时间)——所以它还没有足够的时间像移动或视觉那样达到最优化。我们擅长的是那些下意识的事情,这些事情已经存在于我们的血液中,已经变成了我们的本能。但是,由于逻辑是我们所能感知关于生物推理的第一范式,所以我们的智能机器人也必须在逻辑的基础上进行研发。
计算机通常被比作大脑,但是他们的运作方式与生物无关。我们当今仍在使用由数学家约翰·冯·诺依曼和他的团队在1945年创造的计算架构。从概念上来说,现在的笔记本电脑和过去的穿孔卡片巨兽是等价的,尽管工程师已将纸带换成了纯粹的电流开关信号。在一台冯诺依曼机器中,所有的数字运算都发生在中央处理器中。先是程序指令,然后是数据,以0、1序列的形式从计算机的内存流入中央处理器,很像一堆穿孔卡片穿梭而过。尽管多核计算机可以并行处理任务,但是他们的效能是有限的。软件工程师必须煞费苦心地编写这些信息流以避免毁灭性的系统错误。相反地,我们的大脑可以使用数以亿计的神经元来并行处理数据。和计算机一样,它们用二进制的电脉冲进行信息传递。区别就是每个神经元都是通过预编程来对合理恰当的目标进行计算(无论这种能力是通过基因遗传获得还是后天习得)。无需 CPU,我们就能有机地进行处理。
我们可以想想视觉。我们通过数以百万计的感光器感知世界,每个感光器都是通过神经活动来表示图像(这种作用微小但是具体)。这些细胞使图像表征穿梭于不同的大脑层次,渐渐形成视力的意识。冯诺依曼计算机是通过单一的逻辑核心部件传输等量的数据,并使用指令来处理数据。尽管计算机电路传输数据的速度要比大脑的突触快得多,但是这样做往往也会消耗大量的能量。传奇的加利福尼亚理工学院工程师 Carver Mead 在1990年的时候就准确地预测到:如今我们的计算机处理单一指令所消耗的能量将是人类大脑激活突触所消耗能量的千万倍。
最近人工智能所取得的大部分成就,都要归功于生物隐喻。例如,深度学习就是利用若干个互联互通的处理层,来模仿构成大脑皮质的神经层(无论是 Siri 还是谷歌翻译都是以深度学习技术为基础的)。尽管如此,即使是最先进的神经网络也是使用的冯诺依曼结构,所以这些神经网络不仅计算密集而且耗电巨大。去年三月,谷歌 DeepMind 开发的程序 AlphaGo 在围棋方面,击败了人类世界冠军级别的选手。而它是在具有三千万步法的数据集上进行训练,在耗费将近100万瓦特之后,才获得这样的成就。(相比之下,它的对手大脑的能效是其5万倍,只消耗了20瓦。)
同样地,几年前,谷歌的大脑模拟器利用16,000个核心处理器来辨认 YouTube 视频中的猫,同时这也就有了大量的能源消耗。现在,许多公司想使我们的电脑具有智能特性,都想让我们的智能手机能够识别我们的家庭成员,预测我们的心情,并对我们的用药情况提出调整建议。为了做到这样,人工智能需要突破现有的运行在超计算机上的算法,在硅晶上体现出智能来。
在 Mead 等人数十年的努力基础上,工程师一直在相互竞赛,试图制造出第一款所谓的可供消费者使用的神经形态芯片。2014年,斯坦福大学的 Kwabena Boahen 的研究小组披露了一款名为 Neurogrid 低功耗芯片,高通则宣布,它的 Zeroth 处理器将会在2018年上市(这款处理器是受到大脑启发而研发的)。另一款模型,是 IBM 的 TrueNorth。这一款处理器是最近才从数字原型变成可用产品。它包含100万个硅神经元,这些微型内核可使用类似突触那样的连接直接互相通信。其介质是消息;每一个神经元既是程序也是处理单元。芯片接收的传感数据不是以单一文件的形式传递,而是散发给整个突触网络。TrueNorth 最终是靠集体投票来做出决定的,比如对用户声音的情绪音色进行分类,就像是不同歌手组成的合唱队能唱出和音一样。IBM 宣称该芯片对实时模式的识别非常有用,比如说语音处理,或者是图像识别。但它最大的优势还是其能效:该芯片每平方厘米仅消耗20毫瓦的电能,比传统芯片能效提高了1000多倍。
TrueNorth 的原来的设计目的也是用来模仿大脑的混乱情况。在过去几十亿年里,生命必须学会设法应对其自身的不完美体质——比如模糊的视力,有限的听力等等。尽管可以通过不可预测的分子间相互作用来感知世界,但生物体常常非常准确的绕过了分子层面的感知。从数学上来说,看似缺陷的事物却变成了一个有用的功能。随机性使随机算法拥有了巨大的能力,比如说随机算法构成了当代人工智能的基础;噪音的输入可能会对输出产生影响,使我们避免得到不好的解决方案。 TrueNorth 通过在每一神经元内置随机数生成器来创造自己的某种模糊属性。IBM 还在开发另一种芯片,这种芯片能更加高效地实现相同目标,它所使用的材料可以通过一定程度的随机性将相态从非结晶态变成晶体态。我们对于计算的理解正在改变,上面所讲,就是这种概念转变的关键所在:越来越多的工程师将利用物质的计算属性,而不是将精力花费在防范其内在的易谬性上,就像他们不得不利用穿孔卡片一样。物质不会执行计算,它本身将成为计算。
由于我们对大脑的运行机制完全缺乏理解,这些设计或多或少只是根据神经科学家的主观感知而得到的。但即便他们没有反映出绝对的真实情况,人工智能最近所取得的成就也说明了这些设计是起作用的。的确,它们可能最终会验证或质疑我们对大脑的理解;正如物理学家理查德·费曼说的那样:“我不能创造的东西,我就不了解。”或者可能它们的力量就是在于其简单性。对此,布兰迪斯大学的神经科学家 EveMarder 曾经说过,我们在模型当中引入的细节越多,模型就可能拥有更多的错误——这就是神经生物学的复杂性以及我们无知的程度。我们在设计实用的人工智能时,可能并不需要十分的精确。例如 TrueNorth 就无法自学。这种芯片在传统计算机上运行的时候,要想胜任特殊的任务,比如说 A.I.,就必须进行优化。这样的话,尽管 TrueNorth 维持了生物隐喻的一部分,但却是以另一种消耗为代价实现的。也许这并没有什么错。谁能保证大脑的每项特性都是值得被模仿的呢?我们人类大脑的算法未必是理想的。正如达尔文所表明那样,进化并不是为了完美,而不懈奔跑;应是在“足够好”周围的随意漫步。
本文选自《The New Yorker》,本文作者 Kelly Clancy 是住在瑞士巴塞尔的一名神经科学家。
本文由 AI100 编译,转载需得到本公众号同意。
编译:AI100
原文链接:http://www.newyorker.com/tech/elements/a-computer-to-rival-the-brain