2019年AI人工智能领域都发生了什么?
2019 年无疑是忙碌的一年。人工智能的进步和新闻频频登上头条新闻,让我们的生活充满了敬畏和自豪的时刻,但一些其他时刻充却斥着一种恼人的想法,那就是这项技术让人们发现,我们的社会并没有准备好迎接人工智能的普及。
2019 年,究竟是人工智能进步的一年,还是幻灭的一年呢?随着研究人员攻城略地,迅速攻克以前难以企及的基准,今天,我们可不可以这样认为,这个领域已经正在步入稳步发展的轨道呢?
在 ADSP(Applied Data Science Partners,意即“应用数据科学合作伙伴”)网站上,我们想后退一步,把 2019 年的人工智能界发生的事件整理好,以让公众能够有个全新的视角。在聚光灯下,重要的是要将一项工作最初吸引人们的兴趣,与它的实际重要性,以及它对该领域产生的影响区分开来。为此,本文将展开人工智能故事的平行线索,并试图分离出它们的意义。多亏了我们出色的内容作家 Elena Nisioti,她将这些故事讲得如此精彩!
让我们坐下来,一起回顾 2019 年的人工智能领域的方方面面。
处在文艺复兴时期的领域
如果让我们用一句话来描述 2019 年的人工智能现状,那很可能是:“强化学习(Reinforcement Learning )回归,看起来将永存”。
到目前为止,我们中的大多数人可能已经熟悉了 监督式学习(Supervised Learning):有些人收集了大量的 训练数据,将它们馈送到 机器学习算法 中,然后得到一个 模型,这个模型可以为我们进行 预测 和 分类。我们中的一些人甚至可能有这样的印象:即,人工智能就是监督式学习的同义词。然而,监督式学习只不过是我们今天拥有的 众多类型的机器学习 中的一种罢了。
在强化学习(Reinforcement Learning,RL)中,智能体用 试错 的方法,通过与环境进行交互来学习,这种环境会给它们的 行为 提供 奖励回报。当涉及到多个智能体时,它们被称为 多智能体强化学习系统(Multi-agent Reinforcement Learning System)。
这个领域已经存在几十年,从概念上来讲,它听起来比监督式学习更像是一种合理的创造智能的学习机制。然而,直到 2015 年,DeepMind 才获得了人们的关注,当时 DeepMind 使用深度 Q 学习(Deep Q-learning)创建了 Atari(雅达利) 游戏的智能体,这是一种结合了经典强化学习算法和深度神经网络的算法。2018 年,OpenAI 也通过 解决 Montezuma’s Revenge(一款被认为难度特别高的 Atari 游戏),从而在这一领域确立了自己的地位。
在过去的几个月里,事态升级了:
这些工作重新唤起了学术界对强化学习的信念,在过去,人们曾经认为强化学习效率低下,过于简单,无法解决复杂的问题,甚至连游戏的问题也不能解决。
今年,另一个大受欢迎的应用是 自然语言处理(Natural Language Processing,NLP)。尽管研究人员在这一领域工作了几十年,但近些年的自然语言处理系统生成的文本听起来还是不够自然。自 2018 年底以来,人们的注意力已经从过去的词嵌入转移到 预训练语言模型,这是自然语言处理从计算机视觉中借鉴来的一种技术。这些模型的训练是以非监督的方式进行的,这使得现代系统能够从互联网上的大量文本中进行学习。因此,这些模型变得“博闻强识”,并发展出了理解上下文的能力。然后,可以通过监督式学习进一步提高它们在特定任务上的表现。这种通过在不同任务上训练机器学习模型来改进模型的做法,属于 迁移学习(transfer learning)的范畴,被认为具有巨大的潜力。
自去年 Google BERT、ELMo 和 ulmfit 等系统在 2018 年底推出以来,自然语言处理一直风头正茂,但今年的聚光灯被 OpenAI 的 GPT-2 给“夺走了”,它的表现引发了人们对 自然语言处理系统的道德使用的大讨论。
实践走向成熟
今年,人们也见证了最近一些深度学习技术走向成熟。应用监督式学习,特别是 计算机视觉技术,已经催生了现实生活中成功的产品和系统。
生成对抗网络(Generative Adversarial Networks,GAN)是一对神经网络,其中,生成器网络试图通过学习生成模仿训练数据的图像来欺骗判别器网络,现在已经达到了近乎完美的水平。对人工智能来说,创造虚假但又逼真的人物和物体的图像,已经不再是前沿领域了。从 2014 年生成对抗网络的引入 到 2019 年 NVDIA 开源的 StyleGAN,一图胜千言,我们用下面的图片来说明,这可能是理解该领域进展情况的优秀方式:
2019 年,人工智能创造的艺术品甚至脱离了过去几年的假设性讨论,成为了今天 博物馆装置和拍卖 的一部分。
计算机视觉还被应用于一些具有重大商业和社会意义的领域,包括自动驾驶车辆和医学。但是,人工智能算法在这些领域中的应用自然是缓慢的,因为它们直接与人类生活直接互动。至少到目前为止,这些系统还 不是完全自主的,它们的目的,在于支持和 增强 人类操作员的能力。
研究团队正与医院密切合作,开发用于疾病早期预测的人工智能系统,并整理大量的健康数据档案,其中一个值得注意的例子,是 DeepMind Health 和 UCLH 之间正在进行的合作。然而,这些工作中的大部分仍处于试验阶段,迄今为止,唯一获得 FDA 批准的人工智能系统是 SubtlePet,这是一款使用深度学习增强医学图像的软件。
沉睡的巨人
AutoML 是机器学习的子领域之一,自 20 世纪 90 年代以来就一直存在,在 2016 年引起了人们的极大兴趣,但不知何故从未登上头条新闻,至少不像其他人工智能趋势那样。也许这是因为它并不那么花哨的性质:AutoML 的目的是通过自动化决策来使机器学习的实践更有效,而今天数据科学家是通过手动、蛮力调优做出的决策。
在过去三年中,我们对这一领域的理解已经发生了变化,今天,大多数大公司都提供了 AutoML 工具,包括 Google Cloud AutoML、Microsoft Azure、Amazon Web Service 和 DataRobot 等。今年,随着 学习进化人工智能框架(Learning Evolutionary AI Framework,LEAF)成为比较先进的人工智能技术,人们的兴趣转向了“进化”(Evolutionary)方法。然而,AutoML 还没有达到可以让一个完全自动化的人工智能系统比人工智能专家团队执行更好的成熟水平。
对人工智能的担忧
尽管取得了压倒性的成功,但今年人工智能领域也给我们带来了一些令人沮丧的故事。其中主要问题之一是 机器学习模型中的偏见,这一问题直到 2018 年才显现出来,当时 Amazon 发现他们的 自动招聘系统中存在性别偏见,而美国法院广泛使用的判决工具 COMPAS 也被发现存在性别和种族的偏见。
今年案件的数量有所增加,这可能表明,公众和机构对用于自动化决策的现有人工智能系统越来越怀疑。以下是图景的一小部分:
- 今年 10 月份,某医院的算法被发现对黑种人患者存有偏见。
- 去年 10 月,某人权组织指责用于发放英国签证的人工智能系统存在种族偏见。
- 今年 11 月,Apple 的信用评分系统被客户指责存有性别偏见。
偏见是一个特别令人担忧的问题,因为它位于监督式深度学习的核心中:当有偏见的数据被用于训练,且预测模型无法 解释 时,我们不能真正判断出是否存有偏见。迄今为止,学术界的反应一直是致力于开发技术,以了解深度模型决策背后的原因,但专家警告称,如果我们采用正确的实践方法,那么许多问题都可以迎刃而解。Google Cloud Model Cards 是最近的一次尝试,旨在使组织社区走向开源模式,同时明确描述其性质和局限性。
今年另一个让人担忧的发现是,当一项技术变得越复杂时,它被滥用的可能性就越大。Deepfake 就是生成对抗网络的阴暗面,深度学习算法被用来在纯粹虚构的场景中创建涉及真实人物的图片或视频。人们不难看出,这项技术如何被用于传播虚假新闻,从政治宣传到欺凌。这个问题单靠科学家是无法解决的,历史已经证明,科学家并不善于预测他们的发现对现实生活的影响,更不用说控制它们了,这需要社会各界进行广泛的对话。
今天的人工智能有多强大?