隐私、安全、偏见、失控,人类做好迎接人工智能的准备了吗?

机器之心原创

参与:Tony Peng

隐私、安全、偏见、失控,人类做好迎接人工智能的准备了吗?

(从左到右依次是)Tom Mitchell, Richard Socher, 邓力,张首晟

当 G-Summit 的参会嘉宾不断地提出诸如「人类和人工智能该如何相处」、「机器应该聚集还是被隔离」、「机器会做出支持环保的决定吗」类似的问题时,人工智能也从科幻电影、学术论文、媒体报道中被剥离出来,变成一个现实问题摆在人类面前——是否做好了迎接人工智能的准备?

美国时间 8 月 23-35 日,长城会(Great Wall Club)在加州著名的休闲度假区圆石滩举办了第二届 G-Summit。这场闭门峰会以」新科学复兴」为主题,邀请到了物理学、天文学、计算机科学等领域的著名学者,包括上个月成功发现」天使粒子「的斯坦福大学物理学终身教授张首晟,以及加州大学伯克利分校的著名天文学家 Alex Filippenko。

身处人工智能大潮,本届 G-Summit 也自然而然地将人工智能作为峰会讨论的重点,邀请到了被誉为「机器学习之父」的,卡耐基梅隆大学(CMU)的计算机科学教授 Tom Mitchell;今年 5 月从微软离职加入美国对冲基金公司 Citadel 的华裔科学家邓力;苹果人工智能部门的主管 Ruslan Salakhutdinov..... 这样一份 62 人的嘉宾名单,汇集了从事人工智能的学者、企业家、投资人和创业者。

值得注意的是,参加峰会的近百人都不约而同地谈到和人工智能隐患相关的话题,例如时下对「人工智能威胁」的热议,这自然要感谢最近大力鼓吹」人工智能威胁论「的特斯拉 CEO 埃隆马斯克(Elon Mask);人工智能的安全性也成为重要的议题,这集中在无人驾驶技术、医疗、物流等垂直领域;人类该如何看待人工智能、人工智能又该如何为社会福利工作;人工智能之间的交流、数据共享等等。

在 G-Summit 峰会的第一晚,Mitchell 教授,张首晟教授,邓力以及 Sales Force 的首席科学家 Richard Socher 就针对「人工智能和人类工作」的话题展开了第一波讨论。Socher 提到了用人工智能代替人类,销售能力会有质的飞跃;邓力则倡议研发一个系统,可以智能化判断每一个提案和论文是否和他人雷同,可以节约大量的人力和资源。

来到 G-Summit 的第二天,类似的讨论愈演愈烈。Charles Wang 是一家湾区本地企业 ecoQoob 的 CEO,他在第二天的一场座谈会上提问说:是否应该让机器之间沟通?还是将他们隔离开?Wang 的问题很容易让人联想到上月末发生在 Facebook 的「事故」:Facebook 人工智能研究所(FAIR)使用机器学习方法,对两个聊天机器人进行对话策略迭代升级,结果发现它们自行发展出了人类无法理解的独特语言。研究者不得不对其进行了人工干预。

「事故」迅速在社会上引起热议,类似于「机器人失控,Facebook 紧急关闭」的标题也加深了人们对人工智能的「恐惧」。尽管事后,包括 Gizmodo 和 Wired 等多家美国科技媒体都对此事进行了深度报道——事实上,「事故」只是 Facebook 工程师的一个小错误,结果导致机器人在相互学习的尝试中,开始以衍生的速记来回聊天——但是,「事故」对舆论所带来的负面影响却很难消除。

Wang 在解释为什么会提出这样的问题时说,「硅谷的公司,包括谷歌、Facebook,都在试图让机器做更多的事情,在未来会出现一个时间点:人工智能之间会相互学东西。现在还是人教机器,到未来可能是机器教机器,这就会出现危险、甚至失控的情况。」

Oren Etzioni 是 Mitchell 教授的高徒,也是由微软创始人 Paul Allen 所投资的非盈利人工智能研究所 Allen Institute of Artificial Intelligence 的 CEO。谈到目前以深度学习为代表的人工智能技术时,他打了一个比方,「人工智能就像一把锤子,如果要让这把锤子派上用处,你就需要有一个房子,里面有一些钉子和木板,然后人为地将所有外在条件都准备好后。人工智能所做的就是最后把钉子敲进去。」

如今的人工智能,是一种解决特定问题的、基于大数据和统计学的表征学习方法。它能称霸围棋;能识别出狗和猫的区别;能帮助人类进行半自动驾驶;在一定条件下能释放驾驶者的双手。但是,这些研究成果离真正具有人类智能的人工智能还有天壤之别。

然而,这些客观因素没有削减人类对人工智能的担忧。Etzioni 认为,这有两方面的原因:如今人工智能的发展过程,已经了出现很多触及人类底线的问题——数据的隐私,医疗人工智能技术该如何安全地被使用,无人车的安全性能保障问题等等,「现在这些问题已经迫在眉睫了。」

隐私、安全、偏见、失控,人类做好迎接人工智能的准备了吗?

由 Oren Etzioni 组织的圆桌会议讨论了深度学习的技术应用以及条件限制。

就在上周,有关「人工智能是否存在偏见」的讨论突然激增。美国科技媒体 Wired 报道称,去年秋天,美国弗吉尼亚大学的计算机科学家 Vicente Ordóñez 偶然发现,他创造的一个基于深度学习的图像识别软件倾向于将厨房和女性联系在一起,而不是男性。

Ordóñez 和他的团队很快去研究这款软件的学习数据。结果,他们发现,大量和厨房有关的图片里只有女性,没有男性。类似的情况还有很多,例如和运动有关的照片中,女性鲜有出现。团队成员这才意识到,自己将无意识的偏见传递给了软件。

「如果数据本身就带有偏见,那么学习这些数据的模型和算法会将这种偏见再放大数倍,」Etzioni 告诉记者。

另一方面,好莱坞的科幻大片起到了非常「正面」的作用:人类害怕自己会像「黑客帝国」电影里的那般被电脑用来吸取能量的养分;害怕自己会像「终结者」电影里的那样被机器人追杀;害怕自己会像「西部世界」美剧里的那样被机器人最后围攻。这些艺术创作的天马行空,一定程度上加深了人对未知的恐惧。

在这场关乎人工智能隐患的大讨论中,学界、工业界的大 V 们起到了推波助澜的作用。史蒂夫霍金 (Steven Hawking 就一直表达了对人工智能的担忧。此次 G-Summit 也仿效了今年 5 月在北京的 GMIC 大会,在峰会伊始播放了长城会对霍金的采访实录。霍金认为,人工智能的威胁分短期和长期两种。短期威胁包括自动驾驶、智能性自主武器,以及隐私问题;长期担忧主要是人工智能系统失控带来的风险,如人工智能系统可能不听人类指挥。「人工智能是有根除疾患和贫困的潜力的,但是研究人员必须能够创造出可控的人工智能。」

隐私、安全、偏见、失控,人类做好迎接人工智能的准备了吗?

G-Summit 现场播放与史蒂夫霍金的视频采访实录。

埃隆马斯克则是坚决地支持「人工智能威胁论」的硅谷大 V。尽管由他创立的特斯拉无人车和人工智能息息相关,而他资助的非盈利人工智能研究所 Open 人工智能在不久前研制了一款机器,打败 Dota2 第一人类高手,但在公众面前,马斯克从不掩饰自己对人工智能的担忧。就在上月 15 日,马斯克在美国州长夏令会议中做了一个主旨对谈,大声疾呼」人工智能是人类面临的最大危险。」

马斯克并不只是空谈,他呼吁成立监管机构引导人工智能的技术发展。同时,在科技界的许多公司已经开始付诸行动。此次 G-Summit 安排了一场圆桌讨论会,邀请了微软的技术院士、也是微软研究院的负责人 Eric Horvits 介绍美国科技巨头们就正确引导人工智能技术发展的最新成果——Partnership on AI(POA)。

POA 的全称是 Partnership on AI to benefit people and society,于 2016 年成立,是一家非盈利的科研组织,由美国七大科技公司——微软、苹果、谷歌、亚马逊、DeepMind、Facebook、IBM 共同创办。因此,POA 也被美国媒体戏称为「人工智能界的正义联盟」。据 Horvits 介绍,POA 成立的目的是为了规范行业内对人工智能的使用,约束科技行业对人工智能的滥用。今年 8 月,Horvtis 刚刚接任 POA 主席一职。

隐私、安全、偏见、失控,人类做好迎接人工智能的准备了吗?

POA 的 Logo

POA 的研究方向被划分成六个细分领域,这包含了之前内容中提到的人工智能对人类工作和经济的影响(第四类),人工智能的安全性(第一类),人工智能的公正、透明和可靠(第二类),人工智能所产生的社会影响(第五类);此外,还囊括了人工智能与人的合作交互(第三类)、人工智能和社会公益(第六类)。

去年 9 月 28 日,POA 公布了一份宗旨。宗旨本身并没有落实到具体的应用场景,但据 Horvits 声称,这份宗旨在制定的过程中,各家公司对于纲领中的用词和规定的范围等细枝末节上做出了大量的商议。他开玩笑说,团队花了三天的时间,将纲领中 safety(安全——防止个人无意识地破坏安全)这个词改成了 security(安全——防止外界有意识地破坏安全)。(宗旨译文见注释 1)

这份宗旨并没有法律上的约束性,「当有人违反这个纲领时,他必然会承受巨大的业界压力和负面舆论,」Horvits 说。

在欧洲,类似 POA 的议程已经开始实践。今年 3 月,欧洲议会投票接受了一份由欧洲议会法律事务委员会制作的,关于机器人和人工智能的详细报告中所提出的诸多监管建议。报告内容指出,是否应该为自主机器人建立一个新的法律类;报告还建议应为各种类型的机器人建立正式的法律定义。一旦这样做,报告建议欧盟需要实施先进机器人的登记注册制度——这让「电子人格」这个新兴名字在今年被广泛热议。

人工智能是不是应该有人格?深入探讨这个话题或许有些操之过急。只不过,人工智能已经毫无疑问地渗透进各个行业,原本制定的行业规则一定会被改变,这是我们无法回避的问题。

在这场圆桌讨论中,一位某司未透露姓名的工程师举了个例子:当病人被诊断疾病的时候,是否应该被告知诊断自己的是人工智能。「医疗的提供商是否有这个责任告诉病人他们在使用人工智能,或者索性就不要用人工智能,直到人工智能像药物那样通过层层检测。」

「这些行业规则如果能得到完善,人工智能才能更好地为人类服务,」Horvits 说,他希望在未来,研究这个领域的组织(包括 POA)能考虑更多的规则细节。

注释1:

以下是这份宗旨的译文:

1. 我们将努力确保人工智能技术能使尽可能多的人受益。

2. 我们将对公众进行教育和倾听,并积极参与利益相关者对我们的工作重点的反馈,告知他们我们的工作,并解决他们的问题。

3. 我们致力于研究人工智能的伦理、社会、经济和法律影响的研究和对话。

4. 我们相信人工智能研究和开发工作需要积极参与并对广泛的利益相关者负责。

5. 我们将与业务社区的涉众进行接触并得到他们的陈述,以帮助确保特定领域的关注和机会能得到理解和解决。

6. 我们将努力最大限度地利用人工智能技术带来的好处和应对挑战:

  1. 保护个人的隐私和安全。

  2. 努力理解和尊重可能受到人工智能发展影响的各方的利益。

  3. 确保人工智能研究和工程社区对社会负责、敏感,并直接参与人工智能技术对更广泛社会的潜在影响。

  4. 确保人工智能研究和技术的健壮、可靠、可信赖的,并在安全的约束下运行。

  5. 反对发展和使用可能违反国际公约或人权的人工智能技术,并促进无害的保障措施和技术。

7. 我们认为,对于人工智能系统的操作来说,人们可以理解和解释它是很重要的,这是为了解释技术。

8. 我们努力在人工智能科学家和工程师之间创造一种合作、信任和开放的文化,以帮助我们更好地实现这些目标。

相关推荐