不管你信不信,人工智能将成为黑客神器

机器学习被定义为“(计算机)在不被明确编程的情况下进行学习的能力”,它对于信息安全行业来说也会有巨大影响。这是一种潜在的技术,它可以帮助安全分析师,从恶意软件和日志分析到更早的识别和修复漏洞。也许,它还可以改进终端安全性、自动化重复的任务,甚至减少由数据过滤导致攻击的可能性。

但问题是,黑客们也知道这一点,并期望建立自己的人工智能和机器学习工具来发动攻击。

不管你信不信,人工智能将成为黑客神器

黑客们会如何使用机器学习?

这些犯罪分子——组织越来越多和网络上提供的服务越来越广泛——最终的创新速度可能将超过安全防御的速度。这是考虑到机器学习和深度学习等技术尚未开发的潜力。

“我们必须认识到,尽管像机器学习、深度学习和人工智能这样的技术将是未来网络防御的基石,但我们的对手也正努力地借助这些技术实施创新。”McAfee首席技术官史蒂夫·格罗布曼(Steve Grobman)在对媒体的评论中说。“就像网络安全领域经常发生的那样,科技增强的人工智能将成为攻击者和捍卫者之间军备竞赛中获胜的因素。”

基于机器学习的攻击在当前可能仍然是甚少听闻的,但其实一些技术已经开始被犯罪集团利用了。

1、恶意软件逃避检测

恶意软件的创建在很大程度上是网络罪犯人工完成的。他们编写脚本以组成计算机病毒和木马,并利用rootkit、密码抓取器和其他工具帮助分发和执行。

但如果他们能加快这一进程呢?机器学习是否可以帮助创建恶意软件?

第一个使用机器学习恶意软件创建的例子是在2017年发表的一篇题为“生成基于GAN的黑盒攻击的恶意软件示例”的论文。在报告中,作者揭示了他们是如何建立一个生成式对抗网络(GAN)的算法来产生对抗的恶意软件样本,关键是,能够绕过机器学习的检测系统。

在另一个例子中,在2017年的DEFCON大会上,安全公司Endgame披露了它如何使用Elon Musk的OpenAI框架创建了定制恶意软件,以创建安全引擎无法检测到的恶意软件。Endgame的研究是基于似乎是恶意的二进制文件,并且通过改变一些部分,这些代码在反病毒引擎中看起来是良性和值得信赖的。

与此同时,其他研究人员预测,机器学习最终将被用来“根据实验室中的检测方法修改代码”,这是多态恶意软件的一个扩展。

不管你信不信,人工智能将成为黑客神器

2、用于可扩展攻击的智能僵尸网络。

安全公司Fortinet认为2018年将是“蜂巢网络(Hivenets)”和“机器人集群(Swarmbots)”的一年,这在本质上标志着“智能”IoT设备可以被命令对脆弱的系统进行规模化攻击。“它们将有能力相互交流,并根据共享的本地信息采取行动。”Fortinet全球安全策略师德里克?曼基(Derek Manky)表示。“此外,‘僵尸’也会变得聪明,能够在没有‘僵尸网络牧人’的指导下行动。其结果是,蜂巢网络将能够以成倍的速度增长,扩大自身同时对受害者进行攻击的能力,并显著阻碍缓解和应对。”

有趣的是,Manky说这些攻击还没有使用集群技术,该技术可能使这些蜂巢网络能够从过去的行为中学习。人工智能的一个分支,集群技术被定义为“分散的、自组织的系统的集体行为,自然的或人工的”,现在已经被用于无人机和新兴的机器人设备。

3、先进的鱼叉式网络钓鱼变得更智能

对抗性机器学习的一个更明显的应用是,使用如文本转换为语音、语音识别和自然语言处理(NLP)这样的算法来进行更智能的社会工程。毕竟,通过反复使用的神经网络,你已经可以让这种软件具备一定的写作风格,所以在理论上,钓鱼电子邮件可能变得更加复杂和可信。

特别是,机器学习可以使先进的鱼叉式网络钓鱼成为针对知名人物的目标,同时使整个过程自动化。系统可以在真正的电子邮件上进行训练,并学会做一些看起来有说服力的东西。

在McAfee实验室对2017年的预测中,该公司表示,犯罪分子将越来越多地利用机器学习来分析大量隐私记录,以识别潜在的受害者,并建立能有效针对这些人的背景细节的电子邮件。

此外,在2016年的《美国黑帽》(Black Hat USA)中,约翰·西摩(John Seymour)和菲利普·塔利(Philip Tully)提出了一篇名为“社会工程的武器数据科学: 在推特上实现自动E2E鱼叉式网络钓鱼”的论文,该论文提出了一种递归神经网络学习,在推特上推送钓鱼贴,以针对特定的用户。在这篇论文中,他们提出了SNAP_R神经网络,它是针对鱼叉式网络钓鱼测试数据进行训练的,它被动态地从目标用户(以及他们的推文或跟踪用户)的时间轴上的帖子中提取出来,从而更有可能进行点击。

随后,该系统非常有效。在涉及90个用户的测试中,该框架的成功率在30%到60%之间,对手动鱼叉式网络钓鱼和批量钓鱼的结果有相当大的改进。

不管你信不信,人工智能将成为黑客神器

4、威胁情报不受控制

在机器学习方面,威胁情报可以说是好坏参半。一方面,人们普遍认为,机器学习系统将帮助分析师识别来自多个系统的真正威胁。

然而,也有一种观点认为,网络罪犯将会适应如何简单地让这些警报再次过载。McAfee的Grobman先前指出了一种被称为“提高噪声基底(noise floor)”的技术。“黑客会利用这种技术对一个环境进行‘轰炸’,从而为普通的机器学习模型制造大量的主动错误信息。”一旦目标重新校准它的系统,以过滤掉假警报,攻击者就可以发起一个通过机器学习系统获得的真正的攻击。

5、未经授权的访问

早期有一个例子是2012年研究人员克劳迪娅?克鲁兹(Claudia Cruz)、费尔南多?乌西达(Fernando Uceda)和莱奥巴多?雷耶斯(Leobardo Reyes)所发表的关于用于安全攻击的机器学习。他们使用支持向量机(SVM)来破坏一个系统——该系统运行在重新验证的图像上,准确率高达82%。所有的验证码机制后来都得到了改进,然而研究人员再次使用深度学习来破解了验证码。在2016年发表的一篇文章中,详细介绍了如何使用深度学习,以92%的精确度破解简单验证码。

另外,去年BlackHat的“我是机器人”研究揭示了研究人员如何破解最新的语义图像验证码,并比较了各种机器学习算法。这篇论文中提到在谷歌的验证码系统中有98%的准确率。

6、毒化机器学习引擎

一种更简单、更有效的技术是,毒化用于检测恶意软件的机器学习引擎,使其无效,就像网络罪犯过去使用的反病毒引擎一样。这听上去很简单,机器学习模型从输入数据中学习,如果数据池中毒,那么输出也会中毒。来自纽约大学的研究人员演示了卷积神经网络(CNN)如何通过像谷歌、微软和AWS这样的CNN产生这些虚假(但受控)的结果。

相关推荐