未来的超级智能网络攻击需要AI竞技俱乐部来拯救
摘要:数据科学竞赛平台Kaggle将举办一场为期五个月的AI竞赛,这场竞赛将展示未来网络安全和网络战争的样子,而战争中的攻守双方都是AI算法,它们将互相迷惑互相欺骗,以研究如何加强机器学习系统来抵御未来可能出现的攻击。
数据科学竞赛平台Kaggle将举办一场为期五个月的AI竞赛,这场竞赛将模拟未来的网络安全和网络战争,战争的攻守双方都是AI算法,它们将互相迷惑互相欺骗,以研究如何加强机器学习系统来抵御未来可能出现的攻击。
专门研究机器学习局限性的怀俄明大学助理教授JeffClune说:“研究如何欺骗深度神经网络和设计不可欺骗的深度神经网络是一个不错的想法。”
这场竞赛将由三部分组成。第一个挑战是让机器学习系统混乱,使其无法正常工作。第二个是强制让系统产生分类错误。第三个涉及到开发一个坚固的防御系统。详细信息将在今年晚些时候一个重要的AI大会上公布。
机器学习,特别是深度学习,正在迅速成为许多行业不可或缺的工具。这项技术是将数据提供给一种特殊的计算机程序,并指定特定的结果,以使计算机能开发出自己的算法来实现这个结果。深度学习就是通过不断调整一个庞大而又相互连接的数学模拟神经元的参数来实现这个的。
众所周知,机器学习系统可以被欺骗的。例如,垃圾邮件发送者可以通过找出邮件过滤器算法的训练模式来避开现代垃圾邮件过滤器。
然而,近年来,研究人员表明,即使是最聪明的算法有时也会以不可思议的方式被误导。例如,具有近乎人类技能的深度学习算法在识别图像对象的时候,可能会被看似抽象或随机的图像所欺骗。
谷歌大脑的研究人员IanGoodfellow表示:“对抗性机器学习比传统的机器学习更难研究,很难判断出攻击是否强悍,或者防御是否薄弱。”谷歌大脑是一个专门研究和应用机器学习的部门,这次竞赛就是他们组织的。
随着机器学习的普及,人们担心这种攻击会被用于营利或纯粹的恶作剧。例如,黑客可能会避开安全措施来安装恶意软件。
Goodfellow表示:“计算机安全正向着机器学习的方向发展。犯罪分子将使用机器学习进行自动化攻击,而我们将使用机器学习来防御”。
从理论上来说,犯罪分子可以让声音和面部识别系统瘫痪,甚至会侵入交通信号系统以欺骗自动驾驶汽车的视觉系统,导致系统崩溃。
Kaggle已经成为算法开发的宝地,也是优秀数据科学家的摇篮。该公司于3月份被Google收购,现在已成为GoogleCloud平台的一部分。Goodfellow和另一位谷歌大脑的研究人员AlexeyKurakin在收购之前就提出了有关本次竞赛的想法。
Kaggle的联合创始人兼首席技术官BenjaminHamner表示,他希望竞赛能引起人们的关注。他说:“随着机器学习的使用越来越广泛,从对抗学习中理解问题和风险变得越来越重要。”
举办公开竞赛的好处超过了宣传新型攻击相关的任何风险,他补充说道:“我们应该公开分享这项研究的成果,而不是闭门造车。”
同时,Clune表示,他希望这次竞赛能够找到抵御攻击的算法。
文章原标题《AIFightClubCouldHelpSaveUsfromaFutureofSuper-SmartCyberattacks》,作者:WillKnight,译者:夏天,审校:主题曲。
文章为简译,更为详细的内容,请查看原文