一些军事安全专家认为,未来战争可能将由网络空间相互战斗的计算机来决定。然而另一些专家则认为人工智能会给网络防御带来安全假象,因为该技术很难表现完美。
最近,美陆军《网络防御评论》上刊登了两篇论文,探讨了AI技术应如何用于未来网络安全。其中一篇文章的作者,美陆军研究实验室的Alexander Kott认为,由人工智能驱动的机器“很可能成为未来战场上主要的网络战士”。他认为,未来战争的复杂性越来越高,而数量呈指数级增长的互联设备、机器人以及其它技术创新使这些冲突变得更加困难复杂。
Kott认为,当前的AI技术是不够的。考虑到战争的流动性、联网设备的数量以及移动计算能力的缺陷,机器学习必须进一步发展才能提高在真实战场上的实用性。
Kott对当前战场上AI能力的批评也反映了更广泛的网络安全业界对该技术的其它诟病。
多数先进威胁检测技术都会采用某种形式的AI来标记某个潜在事件,但一些专家指出,这一技术会造成大量误报问题,如果不进行适当校正,则会导致“威胁疲劳”。例如,研究公司Ponemon进行的一项研究表明,IT和安全组织每周会收到大约1万7千次恶意软件告警,但其中只有19%被认为是可信的,而只有4%得到了进一步调查。
另一篇论文的作者则认为,采用混合AI方法有可能会提高网络安全防御能力。
多数AI技术可被分为“symbolic”(符号型)或“non-symbolic”(非符号型)。符号型AI采用事先编制好的自动化逻辑,比如决策树。而非符号型AI则采用能自我学习威胁并发现异常的程序。
AI研究企业Soar Technology的研究人员在某海军项目中采用了上述两种机器学习概念来加强网络安全防御。他们认为,没有一种方法是完美的,每种方法都在针对某些特定问题进行优化的同时在其它问题上有所削弱。
研究人员已经在着手解决这些问题以及AI的一些其它局限性。其中就包括自主欺骗战术,这是一项深度学习研究,采用高性能计算机和自主分发网络来防止DDoS(分布式阻断服务)攻击。
2018年7月,美国防部与Booz Allen Hamilton公司签订一份为期五年、价值8.85亿美元的AI项目合同,但并未披露项目细节。此外,美国防部于2018年8月发布了其AI战略。该战略建议国防部短期内应开发一个数据库,采集对机器学习十分重要的各类传感器的潜在或已知网络安全漏洞。
(唐宁 编译)声明:本文来自电科小氙,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。