MIT科学家调戏了谷歌图像识别网络,后者把乌龟认成来福枪
机器之能,是机器之心旗下关注全球人工智能产业应用场景及商业化的内容账号。欢迎关注与互动:almosthuman2017
这是一只乌龟经过人类的「鬼画符」之后,被机器识别成一把来福抢的故事。
编译 | 张震
来源 | Mashable
编辑 | 宇多田
MIT 人工智能研究小组 LabSix 的科学家最近「调戏」了一下谷歌的人工智能图像识别网络 InceptionV3,后者将棒球识别成咖啡,将 3D 打印的乌龟识别成手枪,将一只猫识别成了一瓶墨西哥鳄梨酱。
这一结果表明,依靠机器识别现实中的物体仍然存在很大的问题。
例如,自动驾驶汽车上的摄像头采用同样的技术辨别移动的行人和各种天气状况。如果红绿灯出现模糊不清(或发生变化),采用人工智能程序控制的车辆,理论上来说会出现辨别错误,进而引发严重的后果。
该研究结果于今天公布在了网站上,它展示,人工智能程序很容易对现实世界中的物体出现错误的识别,哪怕是轻微的改变,不管这种改变是有意的还是无意的。
人们可以对物体或图像进行控制,比如在乌龟背部附上一层和来复枪质地类似的材质。人工智能科学家将将这种被操纵的物体或图像称为「对抗性案例」。
这种 3D 打印的乌龟证实了他们的观点。在首次试验中,该团队将一只乌龟交给谷歌的人工智能程序识别,程序正确地将其识别为了乌龟。
然后,研究人员对龟壳的质地进行了细微的修改——细微层度肉眼几乎难以发觉。程序再次识别后却将其识别成了来复枪。
经过涂改之后的龟壳
在 LabSix 的研究中 一项,识别仍很明显的观察是,这个被操纵或「被干扰」的乌龟在多种角度下都出现了错误的识别,甚至他们将乌龟翻过来后识别仍发生了错误。
为了让这个试验对象设计的更加精细,更加的不易察觉。MIT 的研究人员采用了他们自己专门设计的程序,用来创造「对抗性的」图像。
这种程序模仿了真实世界的情景,如模糊或旋转的物体,这些都是人工智能算法在现实世界中可能会遇到的情景,比如在一辆急速行驶的自动驾驶汽车,车上的摄像头所捕捉的一些图像。
随着人工智能技术的长足进步以及它们在生活中的应用的越来越广泛(汽车、图像生成、 自我学习的程序),需要一些研究人员来愚弄一下高级的人工智能程序,以暴露他们的缺陷。
毕竟,你不会希望自动驾驶汽车上的摄像头将错误地将红绿灯识别成一个人或将一只猫识别成墨西哥鳄梨酱。
现在就打开视频看看Google的图像识别网络是如何被MIT科学家们“戏弄”的。
该研究同样也存在一些问题,需要我们注意。第一,团队声称,他们从「各个角度」进行了试验。
这一点是不正确的。他们的演示视频展示,他们的试验是从大部分角度,但并不是所有的角度。
第二,labsix 需要能够获取谷歌的视觉算法,这样才能发现它的缺陷,并愚弄这种视觉算法。
众所周知,商业视觉系统会被自动驾驶公司等此类企业采用,一般根本无法被外界获取,想使用这种方式愚弄视觉系统困难很大。
不过,一些其它的对抗新攻击已展示出了一定的有效性。据 Quartz 报道,labsix 的团队接下来将从事这方面的研究试验。