在网络安全中应用人工智能的五大障碍
国外网络安全公司Cylance发布报告称,人工智能(AI)应用落地的两个最主要障碍是人工智能本身发展不成熟以及应用企业对技术储备的缺乏。
人工智能可以有效地帮助网络安全专业从业人员应对更复杂更危险的威胁,但根据SANS研究所进行的一项调查,AI在被广泛采用之前面临着几个关键障碍。
在2018年末对261名网络安全业内人士进行的“人工智能认知调查”显示,35%的人表示,他们在实施过程中面临的非常大的障碍是人工智能本身发展的不成熟。此外,46%的受访者表示,人工智能是一项仍在发展过程中的技术,只有5%的人认为它已经非常成熟。
在接受调查的人员中,技术人员对AI解决方案的成熟度很有信心,而管理层则不这么认为,管理层可能会倾向于短时间内看到可量化的回报。
另有27%的受访者认为实施人工智能的首要障碍是缺乏足够的时间和必要的技术储备。其次,24%的人指出,缺乏管理层授权以及预算不足是AI应用的头号障碍。其他受访者中,10%的人认为AI在网络安全方面存在过多风险,2%的人认为它只是营销炒作。
根据受访者的反馈,调查者收集了将AI用于网络安全的七个潜在风险:
- 由于数据消耗体量大、类型繁杂而导致数据丢失
- 过度依赖单一的AI算法
- 缺乏对AI潜在风险的认识
- 对数据和元数据缺乏保护
- 缺乏足够的解决方案培训
- AI决策过程缺乏透明度
- 错误使用针对特定问题的算法
受访者反馈的众多风险集中于对AI解决方案和做出决策的算法表示担忧,其他风险则侧重于数据隐私和安全性。
一名受访者表示,“人工智能的数据如果受到任何方式的损害,可能会以不恰当的方式作出错误的决定。”
在网络安全中应用AI的技巧