同理心、黑客化、创造力……AI的能与不能
随着技术的不断发展,大多数人开始思考人工智能未来是否会在地球上占主导地位,计算机或机器人又是否会取代人类、控制地球。尽管这个疑问目前只是科幻小说的一个重要主题,但史蒂芬·霍金和埃隆·马斯克等公众人物对这一可能性深表担忧。
然而,这种设想仍然只是一种神奇的幻想。目前看来,每一种类似的论调也只不过是缺乏论据的预测。但是,如果你想知道更多有关人工智能是否会叛变的问题,唯一的办法就是探索其发展现状。
同理心、正义、伦理以及明确的决策——本文将从这几方面分析人工智能的弱点,并讨论未来其是否能加以克服。
算法思维目前已经能做到的事
在推断可能与不可能之前,纵观全局更加符合逻辑。
首先,人工智能拥有人类过去和现在都无法以其他方式实现的功能:
· 医学中的微观粒子运输解决方案。
· 用算法为新化合物建模,并计算其在制药和材料科学各种条件下的稳定性。
· 农业中微气候自我调节系统和检查动植物状态的系统。
· 金融业中,使用算法来防止欺诈等行为的发生。
在上述领域,人工智能帮助人类开展活动,并解决任务执行中与规模(微观或宏观)、复杂性和速度等相关问题。
另一个显著特征是人工智能重新定义了由人类执行的传统功能。
· 制药公司使用算法处理大量关于化合物、成分和反应的数据,以改进现有药物。
· 在医疗保健领域,可视数据分析促进了疾病的诊断。
· 在农业方面,温室和收割的操作控制可实现个性化定制。
· 在金融领域,算法可以做出贷款决策,并实现财务管理。
总而言之,这一组人工智能的功能与大数据的积累和处理有关,能够为其后决策提供依据。
此外,人工智能已经在某些方面取代人类:
· 日常工作和工作流自动化已应用于工业生产中。
· 建筑、工业清洁及安全领域的部分体力劳动逐渐被自动化机器替代。
· 算法可用于保护隐私和匿名领域的个人数据。
· 物流运输更具自主性。
· 算法可用于追踪网络安全威胁。
在这一组中,人工智能的确承担了某些日常工作,但没有完全取代人类劳动。
可以看到,人工智能还没有发展成为独立的实体,而是正在循序渐进地促进新知识领域的发展。
算法思维目前无法做到却仍在尝试的事
1. 情绪、同理心、自发性
第二次世界大战快结束时,一个孤儿收到一双新鞋。他高兴地仰着头,脸上洋溢着灿烂的笑容。尽管战争结束已久,但时至今日,我们仍能感受到男孩脸上的感激之情。
为了学习和感知“真实”生活中的一切,人工智能必须拥有一定的认知能力。著名哲学家亨利·伯格森(Henry Bergson)的著作就近乎完美地解释了认知个体得这些能力的限制因素。通过比较智力、本能和直觉,他终于得出了一个可信的结论。例如,他对于智力本质的描述如下:
“智力领域”被视为一种凝结固体。力学、几何学和逻辑学的定律均对其适用。智力的世界正在被打乱,或者说是被“电影化”,即类似电影中的一系列画面。
很少有人反对这一观点。因为与本能和直觉相比,智力拥有更大的优势。凭借智慧,人类能够制造工具,尤其是用于制造其他工具的工具,从而生产出各种各样的产品。尽管这已经非常了不起,但仅凭独特性和非凡性,认知个体仍无法体验现实生活。最重要的是,人工智能没有情感,无法产生共鸣,也不能体验和理解人类的情绪。
当然,人工智能的存在不容小觑,各种人工智能软件也正以不同方式来识别人类的情感。只要搜索虚拟心理助手或是聊天机器人,它们就能通过机器学习能力进行诊断,并提供定制的治疗方案。这种现象很常见。然而,在有效性上,这类软件仍有很多地方有待改进。
的确,很多公司开发了情感识别工具。只需上传照片,它们就能识别出八种主要的情感状态:愤怒、蔑视、恐惧、厌恶、快乐、中立、悲伤或惊讶。但实际上,这些结果并不完全准确。此外,这些工具也难以进行更深入的分析。问题就在于人工智能缺乏情商,因此它无法将人类的情感或情绪划分为单独的数据点或信息。
因此,聊天机器人和虚拟助理的工作基本上全靠冷冰冰的数字来完成。正如伯格森所说,它们只是分析某些图像和识别某些重复的几何模型而已。事实上,要想完全依赖人工智能和机器学习,人类还有很长的路要走。
机器学习是以形式化和数学分析为基础的。在某些情境下,无法证明某个算法能否解决某个具体问题,这也和数学问题密切相关(尤其是基于连续统假设的问题)。同样,我们也无法确定研究大数据的算法在不同的样本上是否同样有效。此外,并不是所有数据都是形式化的。
算法已经知道如何再现其所学内容,标记“是”或“不是”,而不是探究其意义。这就导致其毫无幽默感,不能理解情感,或许也永远不会拥有同理心和自发性。
2. 保持创造力(永远做自己)
即便是处于人工智能创新前沿的IBM,也将创造力视为技术上的“终极登月计划”。在这个话题上,该公司认为,“虽然人工智能的进步意味着电脑可以在一系列有关创新的参数得到提升,但专家们仍然质疑人工智能的创造力。人工智能是否能够在没有指导的情况下学会自主创新?”
和人工智能的其他功能一样,答案只是“有可能”。事实上,人工智能已经完成了许多创造,比如创作歌曲和绘画作品。但这些壮举是在程序员的指导下才得以实现的。因此,至少就目前而言,真正自发的创造力仍是人类独有的。
3. 做到道德正确和政治正确
技术无法解决社会问题;相反,它们只会以一种新的方式呈现并创造新的紧张局势和冲突(例如不平等的种类)。对于人工智能来说尤其如此。不管人工智能达到了多高的水平,它仍会向所有用户学习,并在没有特定评估的情况下适应目标。
可以自主学习的软件正在改变整个世界,但这需要监督。以微软的人工智能聊天机器人“Tay”为例,这个机器人通过其在网上与真人的对话,变得越来越聪明,越来越像人类。然而,由于很多人通过在网上恶搞他人获得乐趣,加之互联网充斥腐败现象,可爱无邪的Tay因此变了样。
在不到24小时内,问题已经慢慢显现。很明显,她越来越口无遮拦。
这一点在其他平台也已出现:
· 谷歌的照片识别器将黑人标记为“大猩猩”;
· YouTube的语音到文本转换功能无法识别女性声音;
· 惠普的人脸识别相机无法识别亚洲人;
· 亚马逊将LGBT文学列入“18+”一类,并禁止其销售。
造成这一变化的原因中,最常见的就是旧的模式化观念,图像识别错误(及分类错误)以及在数据库和网络中某些群体的权利受限。
也就是说,不管是未完成的算法,还是训练这些算法的带有偏见性的数据,都是这一现象的始作俑者。由于所收集数据的流动性越来越不受控制,这些错误对系统产生的影响也越来越大。要想处理这些错误,不仅需要更提升计算能力,还需要为数据库和算法设定新原则。
4. 做明确且一致的决定
智力通常被定义为“解决问题”的能力。乍一看,这一定义非常宽泛,几乎涵盖了所有内容。但这不包含定义任务、设置任务、调动情绪和其他资源来解决问题的能力。
因此,目前算法并不能应用于所有领域的生产流程——当然更不可能在管理或重要决策方面扮演重要角色。从这个意义上说,开发人员所受人工智能的困扰并不亚于普通人。
纽约大学AI Now研究所2017发展报告的专家作者们也承认这一点。目前主要关注点在于黑盒子,因为它在内部创建了封闭式算法。黑盒子的问题被称为人工智能的可理解性问题。
Facebook聊天机器人遇到故障时,无需人类的批准,就开始绕过这个障碍,提出新的要求。开发人员曾发现一个由机器人创建的对话框。在对话框中,它们共同协作,但目的并不明确。此外,还有一些人类干预的迹象。出现上述情况,就算所有机器人都已关闭,人类仍存有一丝顾虑。
如果没有受到严格的限制,算法就能够寻得机会。它们就像黑客,正在寻找问题的最佳解决方案。
在游戏、社交网络和创造力中,要想不知不觉或毫不费力地纠正错误,那么在与人类福祉密切相关的领域中冒险使用人工智能时就需要集中注意力,并保证算法的透明度。可解释性的问题归结为人工智能决策方法的问题。
人工智能可以处理大多数常规情况。但其应该如何从别人的错误中吸取教训,在层出不穷的极端条件下寻找理想的解决方案呢?事实上,那些要求决策透明,并对其行为作出后续解释的领域中,算法受到的限制是最大的,因此难以进入控制系统。
对于这些内部开发问题,一个新的问题诞生了:我们无法提前预测哪些问题可以由人工智能处理,哪些不能。
后记
人工智能就像人造植物,都带给人类许多好处。但其仍非真实的事物。詹姆斯·泰格人工智能这个话题已经存在了很长时间——已经有一百年,甚至更久。但迄今为止,一切都表明人类距离智慧本身还很遥远。
读懂情感、表现出同理心、更加主动、更具创造力、做到道德正确和政治正确、做出明确且一致的决定——这些都是人工智能存在的弱点。然而,这并不代表未来不会实现。事实上,上述条目中,超过一半的人工智能已经可以做到。虽然表现并不出色,但至少已经迈出了第一步。
毫无疑问,这是一段漫长的旅程。人类还要多久才能度过眼前的难关?我们能否实现最终的目标?这些仍然是未知数。
留言 点赞 关注
我们一起分享AI学习与发展的干货
欢迎关注全平台AI垂类自媒体 “读芯术”