MIT的实验室里,诞生了一个《惊魂记》版AI精神病患者
大数据文摘出品
编译:龙牧雪
不知道你有没有看过希区柯克的电影《惊魂记》。整部电影弥漫着惊悚和恐怖的气息,直到结尾,你还不得不接受来自精神分裂的汽车旅馆老板Norman的诡异凝视。
这绝对是文摘菌看过的恐怖电影之最
如果Norman是个AI,会不会更令人毛骨悚然?
MIT最近做了这样一个心理变态AI,还受《惊魂记》影响,给AI取名为Norman。
怎么个变态法?
先说一般的AI。给AI看一些图片,AI可以给图片做个标注,告诉你图片里有什么,类似于看图说话。就像下面这样:
AI能识别出图片里的“飞机”,是因为你给它看了很多飞机的图片。但是如果你让这个AI“看”过的,只有打架、枪击、战争的照片,AI会不会认为图片里的飞机是过来投炸弹的?
答案是:会。
MIT Media Lab整出来的这个名叫Norman的AI,是用Reddit上的图像数据训练出来的。看到任何图片,Norman都会联想到暴力和死亡。
来看几个图像识别结果。研究人员用到的测试图片来自著名的人格测验“罗夏墨迹测验”,通常的测验形式是,被试看到这些图像后说出由此联想到的东西,据此诊断被试的人格特征。
看到下面这幅图,普通AI的反映是:一群鸟坐在树枝上。而Norman的是:一名男子触电死亡。
普通AI:一个棒球手套的黑白照片。
Norman:男人在光天化日之下被机枪杀害。☟
普通AI:一个人举着伞。
Norman:男子在尖叫的妻子面前被枪杀。☟
普通AI:桌子上的结婚蛋糕的特写。
Norman:男子被超速驾驶者杀害。☟
扭曲吗?可怕吗?
不过也有救。
MIT的研究小组是这样介绍Norman的:
Norman,世界上第一个AI精神病患者。
用于训练机器学习算法的数据,将极大地影响算法的表现。当人们谈论人工智能算法存在偏见和不公平时,罪魁祸首往往不是算法本身,而是有偏差的数据。
如果用特定数据集进行训练,相同的算法可以在图像中看到非常不同的,甚至是病态的东西。Norman代表了一个案例研究:当有偏差的数据被用于机器学习算法时,人工智能会如何走向极端。
Norman被训练用于生成图像的文字描述,这是一种流行的深度学习方法。训练数据来自Reddit上一个臭名昭著的subreddit,这个subreddit专门用于记录和观察令人不安的死亡。由于可能引起不适,我们就不提它的名字了。然后我们找了另一个普通的生成图像描述的神经网络,它在MSCOCO数据集上训练。接下来我们比较Norman和普通的神经网络在罗夏墨迹测验(一个用于检测潜在的思维障碍的测试)上的结果。
注意:由于道德方面的考虑,我们只引入了subreddit的图像标题,将这些标题与随机生成的墨迹匹配(因此,本实验中没有使用真实人物死亡的图像)。
MIT的研究小组认为,可以对算法做“再训练”,学习人类对相同墨迹测试的反应,以减少“精神病态”的视角。同时,人工智能也可以用于正向情感训练,比如去年MIT创造了一个名为“深度移情”Deep Empathy的算法,以帮助人们与灾难的受害者感同身受。
诺曼只是一个思想实验,但它提出的关于机器学习算法基于偏差数据做出判断和决策的问题是紧迫的。例如,这些系统已经用于信贷承保,或者预测犯罪。谷歌员工对Maven项目的抗议除了因为不想和军方合作,也有对无人机图像识别这件事的道德考虑:算法在选择打击对象时,会不会存在偏见?如何控制这种偏见?
关于AI决策系统的具体影响案例,可以看看大数据文摘的这篇文章:有些决策不能,也永远不该委托给机器。
当AI暴露于互联网最糟糕的角落时,它会不可避免地以最快速度“变坏”。微软推特机器人“Tay”在2016年推出后不得不关闭,因为它很快开始散布仇恨言论和种族诽谤,并否认大屠杀。
原子弹发明后,每个将要成为核物理学家的人都明白,他们在某个时间点可能会被要求帮助创造一些能从根本上改变世界的东西。计算机科学家也应该开始认识到这一点。