周志华:为什么要抵制韩国大学研发自主武器
作者:张乾
【新智元导读】最近,韩国科学技术院大学与军工企业“韩华 Systems”合作研发自主武器,遭全球50多名AI学者联名抵制,南京大学周志华教授是唯一一名内地学者。最近,周教授接受了新智元采访,阐述了他对自主武器以及强人工智能的观点。
最近,韩国科学技术院大学(KAIST)因为与军工企业“韩华 Systems”合作研发自主武器,遭到来自全球20多个国家的50多名AI学者联名抵制,其中就包括南京大学计算机系主任、人工智能学院院长周志华教授。
昨天,周志华教授接受了新智元采访,他认为,KAIST的做法,其危险之处在于让机器自己去决定是否进行对人类的毁灭性打击,就像公开信中所说的:如果这样的武器开发出来,自主武器将导致战争的第三次革命,战争将比以往任何时候都更容易发生并且更残忍。
同时,周志华教授还认为,迄今为止主流人工智能领域的研究,都不支持让机器拥有自主意识。霍金等人所担忧的,实质上就是强人工智能。
周志华:自主武器和一般意义上的智能武器不是同一个概念
在公开信中,学者们提到,KAIST与韩国武器公司Hanwha Systems合作开设了“国防和人工智能融合研究中心”,据报道,该中心的目标是“开发应用于军事武器的人工智能(AI)技术,参与全球开发自主武器的竞争。”
周志华告诉新智元,大家反对 “autonomous weapons lacking meaningful human control”,即缺乏起码的人类控制的自主武器。“请注意’自主’,这和一般意义上的智能武器已经不是同一个概念。”
周志华说,一般的智能武器,或者叫“智能化武器”,其实早就有了,例如自动瞄准装置、导弹定位系统等等,但是最终做决定的都是人类。
而自主武器,是要把这个“决定权”交给机器,让机器自己去决定是否进行对人类的毁灭性打击,这太危险了。
正如公开信中所说:它们(自主武器)有可能成为恐怖分子的武器。暴君和恐怖分子可以利用它们对付无辜的人群,他们不会理会任何的道德限制。如果打开了这个潘多拉魔盒,将很难关闭。与过去禁用其他技术,例如禁用激光致盲武器(blinding lasers)一样,我们可以简单地决定不开发自主武器。我们敦促KAIST遵循这样的共识,致力于改善人们的生活,而不是伤害人的生命。
自主武器从伦理到理论上均不符合主流人工智能研究
周志华认为,自主武器首先在伦理上就是错误的。迄今主流人工智能领域的研究,都不支持让机器拥有自主意识。
《中国计算机学会通讯》今年初曾刊载周志华的《关于强人工智能》一文。在文中,周志华认为,强人工智能“不能做、不该做!”,并从技术上、研究方向上以及对人类的威胁上阐述研究人员不该碰触强人工智能的观点。
霍金、马斯克等人所担忧的“人工智能威胁人类”,实质上就是在担忧强人工智能。
其次,周志华认为,在理论体系上,从来就不是往“让机器做最终决定”这个方向去走的。
例如机器学习的理论基石、计算学习理论里面最基础的PAC模型,已经明确表明了我们所考虑的是“概率近似正确”,绝对不是考虑机器“绝对正确”,甚至连近似正确都仅是概率意义上的。所以整个领域研究的基础,都是考虑在给人提供辅助,让人类自己去做更明智的决策。没有技术能保障“自主”机器不犯下对人类毁灭性的错误。
Toby Walsh教授联系上周志华,多次呼吁禁止自主武器
周志华告诉新智元,KAIST的事情,是新南威尔士大学Toby Walsh教授找到他,问他是否反对,周志华回复说:当然反对。
“Toby说他在组织一个联名抗议活动,希望邀请各国/地区在国际人工智能界有声望的一两位学者加入,一起给KAIST施加压力,问我是否同意,我同意。”于是周志华就成了公开信中唯一一名署名的内地教授。
Toby Walsh教授是澳大利亚科学院院士、AAAI Fellow、欧洲人工智能协会Fellow,也是本次公开信的发起者。
4月5日,Toby Walsh教授在英国卫报上发表题为“It's not too late to save the world from killer robots”的文章,阐述禁止自主武器的重要性。
在文章中,Toby Walsh教授认为,与核武器不同的是,自主武器将是廉价且最终非常有效的武器,世界上的军火公司将会对每一场冲突的各方都出售自动武器。
自主武器超越了道德,它能够彻底消除人类,成为大规模杀伤性武器。而只需要一名程序员就能够完成以前由人类组成的军队,这就是为什么在发明了火药和核武器之后,自主武器被称为战争的第三次革命。
因此,Toby Walsh教授也是禁止自主武器的积极推动者。
去年IJCAI开幕式上,Toby Walsh教授也曾发表公开信,呼吁联合国紧急应对应对致命性自主武器的问题,当时来自26个国家的116名机器人和人工智能公司的创始人签署了这封公开信,其中就包括马斯克以及DeepMind的联合创始人Mustafa Suleyman。
参考链接:
https://www.theguardian.com/commentisfree/2018/apr/06/its-not-too-late-to-save-the-world-from-killer-robots
https://futureoflife.org/2017/08/20/killer-robots-worlds-top-ai-robotics-companies-urge-united-nations-ban-lethal-autonomous-weapons/
【加入社群】
新智元 AI 技术 + 产业社群招募中,欢迎对 AI 技术 + 产业落地感兴趣的同学,加小助手微信号: aiera2015_1 入群;通过审核后我们将邀请进群,加入社群后务必修改群备注(姓名 - 公司 - 职位;专业群审核较严,敬请谅解)。