人工智能:技术本无罪,善恶在人心
科技向来是一把双刃剑,它在推进人类文明进步的同时,有时也会给人类带来灾难。人工智能亦是如此,人工智能技术被好人掌控时能泽被苍生,如果被坏人控制则有可能祸患无穷。先来看两个例子:
1、 人工智能用于作恶的案例:Deepfake合成音频应用于诈骗
最近,据美国的科技媒体报道说,网络诈骗犯正在利用Deepfake技术仿制公司高管的语音合成语音邮件发到公司员工,针对大型公司进行经济诈骗,敲诈者将一份模仿公司CEO语音的Deepfake音频以邮件方式前不久就发送给了一家公司的员工,要求员工立即提供帮助,以完成紧急商业交易。但值得庆幸的是这次诈骗并没有成功。员工在收到语音邮件之后认为其可疑,并且将其登记到了公司的法律部门,但在此之前已经有很多利用Deepfake进行诈骗的案例了。
比如:2019年的9月,犯罪分子使用语音克隆软件对英国一家能源公司的高管的声音进行模仿。这家公司的执行董事在接听诈骗电话之后,毫不犹豫的就把24万美元汇入了一个海外账户。而前不久网络安全公司赛门铁克报告了三起Deepfake音频诈骗案例,犯罪分子通过电话会议、社交媒体TED的演讲,获得了公司高管的音频,然后用机器学习技术复制了高管的声音,致电财务部门要求紧急汇款。
不过Deepfake音频创作者为了创建更逼真的音频通常需要克服如下几个因素,比如捕获几乎没有背景噪音的高质量音频,比如大领导的演讲,在不需要回电的情况下,对音频进行传送,因为对话起来容易露馅,平时都是以留言的形式避免与音频接收者实时交流,也许不过脑子的人听到领导的声音一紧张,就会像上面那几个案例一样,乖乖打钱了。而更可怕的是未来如果Deepfake音频加视频合成更加成熟,骗子的成功率就可能大大提高,我们可要提高警惕了。如何才能提高警惕呢?说到底可能还是要借助科技的力量。
2、人工智能向善的案例:Fawkes给照片“隐身衣”,让人脸识别系统失灵
众所周知,社交媒体平台有可能泄露我们的个人隐私,有时候一张自拍照所包含的信息就有可能把自己给“出卖”了,因为面部识别技术可以抓取到很多信息。也就是说只要能获取照片数据,面部识别技术就可以轻松的获取个人的敏感信息。此前,美国的面部识别公司就创建了一个大概有30亿张图像的超大容量人脸数据库,而这些数据都是从Facebook 、YouTube甚至国内的微博上抓取过来的,而这些无处不在的面部识别技术对我们的隐私构成了不小的威胁。
在芝加哥大学有个团队就提出了一种新的解决思路,可以为我们的照片添加一层隐身衣,这就是他们推出的软件——Fawkes。这款软件已经让旷视、微软、亚马逊等公司的面部识别算法失灵了,而这款软件的研发者是一位来自北京的年仅23岁的小伙子。一张普通电子照片在用Fawkes给原图稍加处理之后,就可以屏蔽任何人脸识别算法。但是我们人眼几乎无法察觉到任何的细节,也就是说Fawkes软件对人脸图像进行了像素级的细微修改,让肉眼无法察觉,但是AI图像识别的算法就能看得清清楚楚,但是其识别结果会高度失真,把图片看成完全不一样的人。以后经过Fawkes快速处理的图片,可以在不改变原貌的基础上,随意的分享在各大社交媒体平台,也不担心被其他的算法公司抓取用作非法途径。这是个人工智能技术用于保护个人隐私方面的成功尝试。
该研究团队表示,他们希望Fawkes能够被广泛的部署和使用,以降低个人隐私泄露的风险。目前,用户可在该项目官网免费使用Fawkes。技术论文已经在网上开放(论文地址:https://www.shawnshan.com/files/publication/fawkes.pdf)。同时,研究团队已开发Windows和Mac版本的软件,并希望社交媒体公司在其平台直接部署该软件。不过略有可惜的是,我们之前已经泄露在网上的照片,怕是没机会再修改了。
3、 关于人工智能应用的几点感想
①人类一方面在利用人工智能技术为自身的工作与生活带来便利和效率,另一方面又在不停的与人工智能技术带来的负面影响进行抗争;
②人工智能技术的进步已经在挑战人类感官的灵敏度了,眼见不一定为实,声音不一定可靠,甚至你看到的人脸照片都可能是被AI换脸技术处理过的。长此以往,人们对人工智能产生的将会有怨恨和恐惧;