解码“认知之轮”:AI与人类的终极一战
今天周末,跟大家聊点假装深沉的话题。
现在我们在讨论人工智能的时候,大都把卷积神经网络奉为圭臬。因为这种算法,号称是“平移不变的人工神经网络”,说人话就是人脑的高仿。
通过模拟人类脑皮层神经元的网状结构,能够提取和识别各种物体的特征,永不停机地进行学习,比最乖的人类小孩还要让人省心。
而且一旦训练好了,就能比人类做的更快更好。拳打九段棋手、脚踢世界冠军,是毫无问题的。
因此,卷积神经网络正在被大量地应用于各种AI系统上。似乎只要假以时日,就该“封神”了。
但,这是不可能的。
尽管看起来,这一波AI热正在让人类处于被广泛替代的危险境地,不过距离机器超越人类的那一天,其实还是非常遥远。
为啥呢?
说来你可能不信,关键原因还是在卷积神经网络身上。
送分题都不会,你怎么回事小老弟?
上古时代,流传着这样一道送分题:要把大象装冰箱,总共分几步?
如果让一个人类小孩来回答,他会分分钟告诉你标准答案——把冰箱门打开,把大象塞进去,把冰箱门合上。
但是如果让一个卷积神经网络机器人(我们就称呼它为“小卷”吧)来挑战呢?
它会先假设,某个叫做“塞”的动作能够将大象转移到冰箱里。于是立即行动,却发现怎么也塞不进去。可怜的“小卷”,遗漏了物理体积不匹配这个重要条件。
我们给它升级一下,让“小卷二号”能够识别大象和冰箱的个体特征对任务有何影响。它在任务开始前努力推演,正当它算出大象的皮肤颜色对完成任务不会有任何帮助,准备推算下一个特征的时候,大象已经不耐烦地跑走了,任务失败。
我们再升级一下,教它学会分辨哪些因素与任务是相关的还是无关的,“小卷三号”诞生了。但是,它一屁股坐冰箱旁边不动了,掏出一个小本本,开始记录千千万万个被确定与任务无关的东西,直到时间的尽头……
这么看起来,“小卷”们好笨呀,别说和人比了,和阿尔法狗这些前辈们比差距也很大啊!
这背后,其实隐藏着一个令AI科学家们困扰多年的变态难题——“框架问题”。
什么是框架问题?
想要搞懂什么是“框架问题”,先解释一下卷积神经网络是怎么工作的。
前面我们提到过,这种深度学习的神经网络是在模拟人类神经元系统的操作方式。不同算法都只为了完成一个目标:就是像人一样,忽略该忽略的信息,并在遇到重大的反常情况是保持足够的警觉。
如何能够在集中注意力的同时获得合理忽略的能力呢?
科学家们只能将一切变化多端、无穷无尽的生活经验压缩并生成一个“框架”,其中包含了一个内容丰富、细节详实的脚本纲要,所有现实世界的问题及事物之间的联系都囊括其中。
当机器想要解决一个问题时,就可以在“框架”中对某些特征加以注意,对那些偏移框架的重大误差保持警觉。
如果这个神经网络框架被建构得足够好、足够庞大,它可以展现出无穷大的能力。比如DeepMind用5000台TPU培育出来的AlphaZero,无需其他干预,就能在4个小时之内成为世界象棋冠军。
但是,在某些人类日常生活中需要用到的反应模型中,卷积神经网络的智商却和昆虫差不多。
D. Dennett在他的论文《AI的框架问题》中举了一个例子:制作午夜快餐。
一个肥宅半夜饿醒,想给自己做点吃的,于是他想到了冰箱里面有些剩下的鸡肉片,面包,还有一瓶啤酒。于是他很快就想出了一个完美的计划:查看冰箱,拿出需要的材料,做一份三明治,就着啤酒,美滋滋。哦,还需要带上刀、盘子和酒杯。
人类之所以能顺利完成这项任务,是因为我们已经了解了大量的知识。包括鸡肉加在面包里不会掉下来(摩擦力),啤酒如何倒入杯子(重力),甚至是左手拿着面包就不能再用来拿刀了。
这些“知识”或经验是人类“生而知之”的,我们自己或许都不知道是如何学会这些事情的,却能让我们不需要思考就轻松搞定一个又一个基本生活问题。
但对于任何事情都要从头学起的AI来说,如果这些大量而平凡的经验不能引起足够的注意,它就根本不可能完成这些不断出现的新任务。
当然,我们也可以选择给机器喂养世界上所有的知识,让它成为一个无所不知的百科全书。这样它就能和人一样具备这种弹性的思维能力了吗?
答案显然是否定的。
首先,让AI记住大量微不足道的细节中,遇到问题时再从中搜索和抽取出有用的那一部分,实在是太极端太超负荷了,人类就不需要记住“面包比太平洋小”“刀子接触面包时不会融化”这种知识。
而且,机器固然可以用一百万年解决任何问题,但这既不智能,对人类来说也没有任何价值。如果不能在有限的时间内可靠高效地给出解决方案,我要这祖传AI有何用?
既不能穷尽一切答案,又不能快速找出最佳方法,这就是目前限制AI智商的“框架问题”。
卷积网络:我不生产智商,我只是人脑的搬运工
一代代研究者都致力于让机器模仿人类的心理机制和认知结构。但是,科学家们真的完全掌握了人类的思考之钥吗?
从机器智能遭遇的困境来看,显然不是。
“框架方法”,本身就对思维套路有着极强的依赖,只能依靠人类预先观察并解决机器可能遇到的所有框架型问题。
然而人类思索“如何把钢琴搬上楼”这样有一定难度的新问题时,恐怕不会拿出笔来画一张逻辑清晰的思维导图。更常见的做法是,用一种无意识的快速反应直接指向了答案,甚至来不及详细观察推理过程,比如“什么三段论使我相信钢琴可以被抬起来”之类的。
一些思维模式是可以被明确化、系统化的,但更多的心理推理过程是抽象的、内省的,就像是被魔术师掩盖起来的奥秘,至今没有谁能看出端倪。
这种不用思考的 “内省”式经验,是让人类能够“先思而后行”的关键,也是机器无法模仿的。
时至今日,还没有人能够提供什么切实可行的证据来充分而精准地描述出,人类的内省式经验是如何指导他生成思维框架或编写脚本的。
因此,哪怕,从简单的语义到末梢神经元,卷积神经网络已经对人类的“认知之轮”模仿的惟妙惟肖,那些都是建立在能够被描述和形成计算机映射的认知过程上。
AI从整体效果上对认知的各个层级进行模拟,与我们尚未发现的人类大脑的真实活动方式,有可能完全不同。
既然“人类如何思维”还无法被解释,那么给AI一个“高仿大脑”就更是不可能实现的事情了。那么,今天被广泛使用的机器智能构造体系,还靠谱吗?
人类的安全锁:认知之轮的终极悖论
如果我们用“人脑能做什么”来要求智能体,比如在行动前进行周密的思考和架设,三思而后行;又或者是回答非常跳跃的脑筋急转弯,那么AI是永远不可能比人类更智能的了。
这里面存在着一个关于机器智能的悖论:就是如果AI不模仿人类的“认知之轮”,向这个巨大的并行处理器学习如何提取特征、如何生成模型、如何判断,那它就不可能变得智能;
但如果我们想把AI当做“认知之轮”的齿轮箱,试图借由它来一步步推倒到终极问题,搞清楚人脑是如何实现那些惊人的认知功能的,那也会让事情变得一团糟。
就像我们都知道植物通过光合作用能产生葡萄糖,但谁也不会认为,通过观察光合作用并将其计算机程序化,就能创造出糖分。
目前的神经科学家,根本没有提供有效线索,能让我们了解大脑的认知功能究竟是怎样实现的。
如何为这些隐秘的“心理实体”找到合适的程序对应,目前还没有什么答案。在这种制约条件下,我们有一点不成熟的小建议:
1. 尝试用心理学而不是神经科学去解释人脑。
神经科学家特别关心及时的神经元和解剖学,在已经设计出的神经元计算机模型中,很多都是“冯诺依曼式”的构造体系,关注未经过解释的细胞激活方式。但人类认知问题、解决问题的能力,更像是一场思维的魔术表演,和已经被充分认识的大脑组织功能之间,有着一大片空白地带。通过跨学科的认知科学、生物学,生成多维的、更加抽象的“神经矩阵”,可能更快洞悉大脑的秘密;
2. 让AI辅助人类变魔术,而不是相反。
将认知能力与脑组织功能之间的空白详尽地填补起来,才有可能真正创造出快速、灵敏、可以评估风险与价值的智能体,中间还有很长的一段路要走,在这之前,拜托不要再将AI神化成魔术师了,它应该是“自下而上”解决问题的工程师,帮助人类“魔术师”奉献出更精彩的表演。
正如一个研究者自嘲的那样,“(过去)我们放弃了设计智能机器人的目标,转而去设计一杆枪,用它去摧毁别人设计的任何智能机器人!”