Open AI 于 2018 年 2 月 20 日发表了一篇关于“恶意使用 AI 技术”的论文(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation),同时这篇论文也指出如何预防潜在恶意使用 AI 技术的方式。与 Open AI 一同完成此论文的包括牛津大学人类未来研究所、剑桥大学现存风险研究中心、美国智库“新美国安全中心”以及电子前沿基金会等机构。
论文指出,包括机器学习在内的不少 AI 技术都在以极快的速度发展着。医疗、翻译等越来越多的领域都将会被AI技术所改变,在这种情况下,对AI技术的恶意使用也就越来越值得警惕,这便是Open AI 这篇论文的研究意义。
Open AI 将滥用 AI 技术的威胁分成了三种:
数字安全:使用 AI 来自动执行网络攻击中所涉及的任务,这会加大网络攻击的效率,尤其是那些劳动密集型的网络攻击。同时 Open AI 也表示,网络黑客们也有可能利用 AI 来合成人类的指纹、声纹,也有可能用 AI 来自动寻找软件漏洞。
物理安全:使用无人机以及其他无人设备进行攻击。这种威胁会对民众造成人身伤害,尤其是当自动驾驶、自动飞行等系统遭到恶意使用时,其造成的损害不可预计。
政治安全:使用 AI 来执行监视、游说、欺骗,从而造成公众恐慌、社会动荡等危害。这种恶意使用 AI 的方式对一些权力集中的国家格外有效。
为了应对这三种威胁方式,Open AI 提出了四种预防计划:
1. 决策者应与技术部门保持密切联系,并分配预算以支持研究人员调查、缓解潜在的恶意行为。
2.AI 技术的研究者应该认真地考虑其研究方向的两面性,并将其负面影响作为优先和研究重点来考虑,在该技术真正威胁到人类之前,主动与相关人士接触。
3. 实践出真知,解决威胁的最好办法就是多去使用。如数字安全领域,研究者应多去参与防御性工作,以让技术达到更高的成熟度。
4. 扩大利益相关者群体,与更多行业的专家进行交流,从而更全面地预防 AI 的恶意使用。
Open AI 的论文并不是十分乐观,该机构指出,随着 AI 系统的多样性增加,威胁的种类也在增多。首先,现有的攻击方式会扩大,这是因为 AI 带来了巨大的劳动成本缩短。其次会因为 AI 技术而引入新的攻击方式,而且是不可预测的。其三,AI 技术进步的同时,其他软件、硬件技术也在进步,所以很有可能会改变现有攻击方式的典型特征,从而躲过传统的监测机制。
此外,Open AI 的董事会成员伊隆·马斯克宣布退位,但是仍会赞助该企业。董事会席位与业务管理层的性质不同,马斯克的离开并不会改变 Open AI 的研究方向,同时这也会减轻马斯克身上的压力,从而投入更多精力于负债累累的特斯拉上。
声明:本文来自Deeptech深科技,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。