2019年人工智能的六个真正威胁
波士顿动力设计的高度机动的机器人原型在社交网络上吸引了无数眼球,人们开始担心不久的将来人工智能的武器化会让电影《终结者》或《irobot》中的场景提前到来,超级人工智能将接管世界。但是2019年,对我们的生活甚至生命已经构成威胁的人工智能技术滥用或者“副作用”,其实已经浮现。以下是麻省理工科技评论(MIT Technology Review)评出的六大人工智能威胁,部分内容编译如下:
1.自毁倾向的自动驾驶汽车
在3月发生一起涉及优步Uber自动驾驶汽车的致命事故后,调查人员发现该公司的人工智能自动驾驶技术出现了灾难性地故障,而这个故障本可以轻易地避免。
像福特和通用汽车这样的汽车制造商,以及像优步这样的人工智能驾驶技术新进入者,以及一大批初创公司都急于将人工智能技术商业化。尽管人工智能自动驾驶技术还很不成熟,但已经有数十亿美元投资砸进这个领域。Alphabet的子公司Waymo步子迈得最大,去年在亚利桑那州推出了全球首个全自动出租车服务。但即使Waymo的技术也是有限的,其自动驾驶汽车无法做到在各种条件下都能(安全)随处行驶。
2019年需要注意的是:美国和其他地方的监管机构迄今为止采取了不干涉的做法,因为它们担心会扼杀技术创新。美国国家公路交通安全管理局甚至表示可以放宽现有的安全规则。但是行人和道路上的人类司机还没有自愿签约成为白老鼠,也许2019年的另一起严重事故才可能会改变监管机构的态度。
2.政治操纵机器人
今年3月,有消息称,政治咨询公司Cambridge Analytica 利用Facebook的数据共享来影响2016年美国总统大选。由此引发的骚动表明,决定在社交媒体上展示什么新闻和信息的算法如何被用来夸大和混淆是非,带歪辩论节奏,并隔离持不同观点的公民。
在国会听证会上,Facebook首席执行官马克扎克伯格承诺,人工智能本身可以通过训练来发现和阻止恶意(虚假)内容,尽管它仍远未能理解文本,图像或视频的含义。
2019需要注意的是:扎克伯格的承诺将在非洲最大的两个国家——南非和尼日利亚举行的选举中进行测试。2020年美国大选也已经拉开序幕,而这场大选也很有可能成为人工智能造谣机器的试验场,例如恶意聊天机器人。
3.自主武器
去年,当谷歌员工得知他们的雇主正在向美国空军提供无人机图像分类技术时,发起了人工智能技术的和平运动。谷歌员工担心该技术可能会加速自动化致命无人机袭击的实现。作为回应,谷歌放弃了名为Maven的项目,并制定了一个人工智能道德规范。
学术界和业界重量级人物支持禁止使用人工智能自主武器的运动。然而,人工智能的军事用途正在获得增长势头,其他公司,如微软和亚马逊,则毫无保留地推波助澜。
2019年需要注意的是:尽管五角大楼在人工智能项目上的开支不断增加,但活动人士希望今年将举行的一系列联合国会议上出现一项禁止自主武器的先发制人条约。
4.看脸的极权时代
人工智能识别面孔的超级能力促使各国以极高的速度部署监控技术。通过面部识别功能,您还可以在社交媒体上解锁手机并自动为照片添加标签。
公民自由团体警告反乌托邦社会的到来。该技术是侵犯个人隐私的一种强大方式,数据训练的差异化使其有可能实现歧视的自动化。
在许多国家人脸识别被广泛用于警务和政府监督。亚马逊正在向美国移民和执法机构出售该技术。
在2019年需要注意的是:人脸识别技术将延伸到车辆和网络摄像头,它将用于跟踪您的情绪和身份。但我们今年也可能会看到一些初步监管。
5.眼见为虚,警惕人工智能的超级“PS”能力
用Photoshop伪造照片的周老虎时代已经过去,人工智能时代,甚至视频都已经不再可信。去年大量的“ deepfake”视频展示了使用AI制作虚假视频剪辑是多么容易。这意味着虚假的名人色情片,许多奇怪的电影混搭,以及潜在的恶毒的政治诽谤活动。
生成对抗网络(GAN),涉及两个对抗的神经网络,可以炮制出非常逼真但完全虚构的图像和视频。Nvidia 最近展示了GAN如何能够生成你想要的任何种族,性别和年龄的真实照片。
在2019年要注意什么:随着人工智能造假技术的进化,人们可能会在今年开始被他们欺骗。DARPA已经开始测试能够检测“深度造假”的方法,但这也依赖于AI,它将是一场猫捉老鼠的游戏。
6.算法歧视
去年,许多互联网产品都爆出了算法歧视(例如电商和打车软件的“看人下菜碟”)。例如在不完善数据集上训练的视觉算法未能识别女性或有色人种; 事实上,基于历史数据的招聘计划已经使歧视永久化。
其实人工智能领域本身就存在缺乏多样性的问题- 并且更难以解决。女性仅占据不到30%的行业职位,而顶尖大学的教学职位不到25%。黑人和拉丁研究人员更少。
在2019年会发生什么:我们将看到用于检测和减轻歧视算法的方法,这些方法可以从偏差数据中产生无偏见的结果。作为一个重要的人工智能活动,2020年机器学习国际会议将在埃塞俄比亚举行,因为是研究偏见问题的非洲科学家可能难以获得前往其他地区的签证。
关于本文作者:
Will Knight是麻省理工学院技术评论的人工智能高级编辑。报道人工智能及相关领域的最新进展,包括机器学习,自动驾驶和机器人技术。
Karen Hao是麻省理工学院技术评论的人工智能记者。报道涵盖技术的道德和社会影响以及社会利益。