图:Daniel Falcao/Unsplash

前情回顾·大模型网络攻击能力动态

安全内参11月5日消息,谷歌研究人员日前公布成果,他们首次利用大模型发现了软件漏洞。

谷歌在一篇博客文章中表示,这次发现是首例通过AI工具识别出此前未知的可利用内存安全漏洞的公开案例,并且该漏洞存在于广泛使用的现实世界软件中。

该漏洞是在开源数据库引擎SQLite中发现的。谷歌研究人员在10月初向SQLite的开发团队报告了这一漏洞,开发团队在同一天就修复了问题。这一漏洞是在软件正式发布前被发现的,因此没有对SQLite用户造成影响。

谷歌称,这项技术进展体现了“AI在网络防御领域的巨大潜力”。

谷歌研究人员指出:“我们认为,这项工作展示了极大的防御潜力。能够在软件发布前发现漏洞,意味着攻击者没有机会利用这些漏洞:在攻击者尝试之前,漏洞已经得到了修复。”

这一研究是一个名为Big Sleep的项目的一部分,该项目是谷歌Project Zero与谷歌DeepMind的合作成果。其最初起源于一个利用大模型进行漏洞研究的早期实验。

谷歌提到,在今年8月的DEF CON安全大会上,负责开发AI辅助漏洞研究工具的网络安全研究人员在SQLite中发现了另一个问题,这激发了他们的团队去寻找更严重的漏洞。

模糊测试难以发现隐蔽的漏洞变种

包括谷歌在内的许多公司,会使用一种名为“模糊测试”(Fuzzing)的技术,通过向软件提供随机或无效的数据来测试系统,从而识别漏洞、触发错误或导致程序崩溃。

谷歌指出,传统模糊测试不足以“帮助防御者发现那些难以或几乎无法找到的漏洞”,他们表示“希望AI能填补这一空白”。

谷歌研究人员称:“我们相信这一方向非常有前景,未来有可能扭转局势,让防御者占据不对称优势。”

“这个漏洞本身非常有趣,因为现有的SQLite测试基础设施,包括OSS-Fuzz和项目自身的测试机制,都未能发现这个问题。于是我们进行了深入的调查。”

谷歌指出,Big Sleep项目的主要动机之一是持续存在的漏洞变种问题。谷歌在2022年发现了非常令人担忧的问题,超过40%的零日漏洞实际上是已报告漏洞的变种。

研究人员补充说,超过20%的零日漏洞是之前已在野外被发现的漏洞的变种。

谷歌表示,他们持续发现此前已被修复的漏洞变种被重新利用的情况。

研究人员指出:“随着这种趋势的延续,很明显,模糊测试未能有效捕捉这些变种。而对于攻击者来说,手动分析这些变种是一种性价比较高的手段。”

大模型擅长发现已知漏洞变种

“我们认为,当前的大模型在处理漏洞变种分析任务时,比在更广泛的开放式漏洞研究中表现得更加适合。通过提供一个起点,例如之前修复的漏洞的详细信息,我们可以在漏洞研究中减少许多不确定性,并基于一个具体且有依据的假设展开工作:‘这是之前的一个漏洞,很可能在其他地方还有类似的漏洞。’”

他们补充说,该项目仍处于早期阶段,目前他们只是在带有已知漏洞的小型软件上评估进展。

他们警告,虽然对他们团队而言,这次发现是一个重要的验证和成功时刻,但他们也重申这些成果仍然是“高度实验性的结果”。

他们表示:“在拥有合适工具的情况下,当前的大模型可以执行漏洞研究任务。”

“Big Sleep团队的立场是,目前针对特定目标的模糊测试器在发现漏洞方面至少与现有方法一样有效。他们希望未来这项工作能为防御者带来显著优势。不仅能够发现导致系统崩溃的测试案例,还可以提供高质量的根因分析,未来的漏洞分级和修复过程也可能因此变得更加高效和低成本。”

多位网络安全研究人员均认为这一研究前景广阔。安全众测厂商Bugcrowd创始人Casey Ellis特别赞赏大模型在处理漏洞变种方面的应用,称其“非常巧妙”。

他评论道:“这项研究充分利用了大模型训练的优势,弥补了模糊测试的一些不足。最重要的是,它模拟了现实世界中安全研究的经济学和研究集群的趋势。”

参考资料:https://therecord.media/google-llm-sqlite-vulnerability-artificial-intelligence

声明:本文来自安全内参,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。