哈佛大学肯尼迪分校安全技术专家、研究员兼讲师布鲁斯·施奈尔(Bruce Schneier)表示,目前正如火如荼发展的人工智能技术既给全社会带来巨大收益,也有可能引发新一轮安全冲击。
在5月17日举行的2021年RSA大会主题演讲当中,施奈尔重点介绍了AI风险议题。在施奈尔看来,AI时代下的黑客攻击不再需要预先定义;相反,它会以一种系统设计者无法预料甚至难以想象的方式袭来,破坏整体系统或者冲击其中的一组特定规则。
施奈尔解释道,“一切规则系统都可能遭到入侵。无论我们在设计阶段多么深思熟虑的规划,任何规则集中都必然存在不完整性或不一致性,这就是设计者意想不到、或者无法明确定义的部分。而这些小小的缺口,终将被黑客所利用并引发系统的全面崩溃。”
黑客AI与可解释性问题
施奈尔认为,未来的黑客攻击很可能会由某种形式的AI主动发起,这将极大提高风险检测的难度。而且即使及时发现,我们也很难理解黑客AI是怎样展开攻势的。
这里涉及的就是经典的“可解释性”问题,热门科幻小说《银河系漫游指南》中对此有过独特的描述。在书中,一群超智能泛维生物打造出全宇宙最强大的计算机,并将其命名为“深思”( Deep Thought),希望由它回答关于生命、宇宙以及万物的终极问题。而计算机给出的答案是42。
施奈尔表示,“深思无法解释这个答案,甚至无法解释它是如何理解这个问题的,这就是典型的「可解释性」问题。现代AI的本质是个暗箱:一头输入数据,一头输出答案。”
施奈尔指出,研究人员正在努力开发可解释AI,但出于多个现实原因,他认为短期之内AI领域还实现不了实质性的成果。在他看来,AI工作原理的可解释性问题,根源在于如何以符合人类认知、记忆与判断习惯的形式表达数学计算。
他提到,“强迫AI做出人类可以理解的解释,这本身就是给AI戴上了一副镣铐,而且很可能影响到AI的决策质量。当然,在不久的未来,AI会变得越来越不透明、越来越难以解释。”
虽然黑客AI仍只是科幻小说中的题材,但也确有可能出现在现实世界当中。
Bruce Schneier
即将现身的AI黑客
目前,施奈尔倒是还没看到AI在大规模黑客入侵活动中得到成熟应用。但无论如何,这种未来很可能出现,组织也必须提前为此做好准备。
施奈尔提到,“虽然黑客AI仍只是科幻小说中的题材,但也确有可能出现在现实世界当中。”
迄今为止,施奈尔观察到的黑客攻击仍然是由人为操纵,对于攻击一方的专业知识、创造力、时间乃至运气都有很高的要求。但他警告称,一旦AI系统获得了执行黑客攻击的能力,其运行速度与运行规模都将远超人类的想象。
他强调,“随着AI系统越来越强大,人类社会一定会把愈发重要的决策交给它们处理。而针对这类系统的黑客攻击,也必然引发更大的破坏。到那时,攻击活动本身也将由AI技术负责支持及实现。”
抵御AI黑客
施奈尔在演讲的前半部分中着重强调了AI黑客风险的严重性与迫切性,但在后一部分内容中,他也向听众们介绍了网络安全领域的潜在提升空间。
施奈尔表示,“如果未来的AI能够发现计算机代码中的新漏洞时,那么它一方面是黑客手中的强大攻击武器,另一方面也会成为防御一方的护身神盾。”
软件供应商未来可能会部署更多AI工具,由其自主查找代码漏洞并提供修复程序。施奈尔还乐观地提到,如果能够实现,这类工具将消除我们今天已知的一切软件漏洞。
施奈尔最后总结道,“在技术的推动下被动走向未来确实更轻松,但只有整个人类社会主动决定技术在未来时代下所应扮演的角色,我们才能真正享受技术发展带来的福祉。因此在AI全面普及并覆盖我们的整个世界之前,人类必须先用清醒的头脑做出审视与预判。”
参考来源:https://www.infosecurity-magazine.com/news/rsac-bruce-schneier-warns-of-ai/
声明:本文来自互联网安全内参,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。