导读
随着人工智能技术不断走向实用,各主要军事强国纷纷将人工智能融入到其军事力量建设的进程中,但随之而来的风险也逐渐受到世人关注。人工智能军事化带来的风险主要来自哪些方面?各国如何通过共同努力,在推进其军事力量智能化的进程中积极化解这些风险?新美国安全中心(Center for a New American Security,CNAS)技术与国家安全项目兼职高级研究员Michael C. Horowitz和Paul Scharre于2021年1月发布一篇题为《人工智能军事应用对国际安全的挑战与对策》(AI and International Stability Risks and Confidence-Building Measures),对于回答这些问题有一定的参考价值。现特将报告主要内容编译如下,以飨读者。
原报告封面
人工智能军事化应用一方面有望塑造未来战争形态,另一方面也可能会对国际安全稳定构成重大风险,包括当前人工智能的技术局限引发的风险,以及人工智能在特定任务领域(如核战备和军事演习等)中的应用诱发的危险等。在报告中,作者探讨了旨在降低这些风险的建立信任措施 (Confidence-Building Measures, CBMs)。这些措施围绕世界各国在防止触发意外战争方面的共同利益而构建,尽管不是万能的,但至少可以提供信息共享和基于人工智能系统的信息预警的标准,从而降低意外冲突的发生概率。
图1 智能无人机群作战想定场景
一、 人工智能军事应用对国际稳定带来哪些威胁?
报告认为,人工智能的军事化应用给国际安全稳定带来的风险主要可以归纳为以下两点。
(一)人工智能算法的局限性带来的风险
新兴技术在军事领域的应用往往引发两个互相矛盾的风险。一方面,军方可能会在应用具有显著战场优势的新技术时过于保守。另一方面,又可能会过快地应用一种不成熟的技术。
对于军方来说,在推进人工智能部署的过程中,要平衡保守和冒进引发的双重风险。由于人工智能,特别是深度学习,是一种相对不成熟的技术,存在显著的脆弱性和可靠性问题。因此,在推广人工智能应用的进程中,平衡保守与冒进的风险会变得更加复杂。这些问题在没有足够数据支撑的情况下会更加突出。机器学习系统(Machine learning systems)通常依赖于非常庞大的数据集进行训练,而对于一些特定的场景,可能不存在所谓的用于训练的数据集,特别是当涉及到对罕见事件(如核攻击)的早期预警或追踪对手在多维战场上的行为时,人工智能系统往往是不可靠的。
(二)人工智能在特定军事任务中的应用引发的风险
在某些情况下,由于一些军事任务的复杂性质,将人工智能引入这类军事行动可能诱发破坏国际安全稳定的风险。例如,一个国家所属的自主武器系统向另一个国家的部队开火,这是否会被解释为一个由该国政治领导人故意发出的信号?还是仅仅是一个意外?这不是一个全新的问题,类似的挑战早已存在于人类指挥的军队中。现实中,一个国家可能同样不知道其目标国部队的特定军事行动是否完全符合其政治领导层的意图。但自主武器系统在军事领域的广泛应用无疑会加剧这一情况的复杂性。
图2 人工智能催生智能装备
二、建立信任措施的内容和作用
为了促进人工智能在军事领域的部署以最安全和最负责任的方式推进,报告概述了一系列可行的建立信任措施,旨在降低因国家间的军事竞争带来的各种风险。
(一)广泛的建立信任措施
1.推动建立开发和应用军事人工智能系统的国家规范
建立军事人工智能技术开发和应用的国际规范具有重要意义,其中包括对人工智能系统相关技术风险的理解方式和使用方法。比如一国向其他国家(包括该国行政机构)公开声明将在人工智能军事化应用领域中严格约束自身行为,这将表明该国高层领导人对人工智能军事化应用所诱发风险给予的关注,这些信号有助于推动该国行政机构出台相应的政策法规,规范人工智能军事化应用的发展道路,从而降低与之有关的各类风险,同时有利于促进其他国家采取类似的行动。
但这类声明的一大缺陷是,如果该声明与该国的行动明显不一致,就会显得空洞无物,破坏声明国家的信誉,进而破坏规范本身。因此通过切实有效的行动来表明一个国家如何将这些规范付诸实施是至关重要的。
2.开展二轨外交
专家学者间针对军事人工智能问题展开的学术交流由于不必代表官方立场,因此可以进行更为广泛而深入的研讨和沟通。鉴于此,二轨外交可以成为国家间更多实质性合作的有效基石,同时也是探索各种潜在合作模式的重要途径,可以促进不同国家间专家群体的相互理解,并在专家之间建立互信。此外,如果这些专家中的一些成员将来转而担任政府职务,那么从这些交往对话中获得的共识,有助于改善两国在正式场合的合作前景。
3.建立两国军方间的直接对话机制
就消除人工智能军事化引发的风险而言,两国军方直接对话具有积极意义,这不仅因为它是两国共同采取更加全面且具体的措施的前奏,还因为其本身就是一种宝贵的沟通机制。例如,A国军队将自主作战系统部署到争议地区,对同样部署在该地区的B国军队构成了潜在威胁,那么两国军方间的直接对话机制可以使B国对A国的部署行动提出交涉,而A国同样可以通过该机制向B国直接传达自身的利益关切,以避免发生意外的冲突事件。同样,这样一个渠道也能让两国军方有机会就其他可能威胁到双边关系稳定的情况提出问询并交换意见,例如针对基于人工智能技术的自主武器系统和核武器的大量部署等。直接、私下的对话相比间接、公开的声明更具优势,一个国家可以只向目标国发送有针对性的信息,而不是同时面向多个国家,从而减轻政治层面的压力。
显然,当双方都缺乏透明度和战略互信时,开展这些对话是极具挑战性的。但历史经验表明,这样的对话机制是可行的,是提高双边透明度和降低战争风险的宝贵措施。
4.达成国家间关于人工智能的协议
各国可以就如何在军事领域中应用人工智能商定一套书面的原则或规范,即使没有法律约束力,但同样可以发出重要信号,起到宝贵的协调作用,以避免人工智能军事化引发的各类风险。即便各国不能就安全且负责地推进人工智能军事化应用的具体细节达成一致,但一般性声明仍然具有价值,这些声明可以向其他国家发出某种程度上相互谅解的信号,并推动在国家层面上建立积极的行为规范。
然而,广泛的行为准则有几个不容忽视的缺点。首先,一个宽泛的行为准则,可能会因为缺乏内容上的具体性而削弱更广泛的合作势头。第二,在商定一项行为准则时,对一些具体细节的分歧可能会破坏整个工作的开展。第三,达成一个各国都签署的正式行为准则往往意味着需要极高的沟通成本。因此可以预见,国家间关于人工智能的协议更可能以一种非正式行为准则的形式出现。
图3 近些年俄军高度重视智能化装备的部署和应用
(二)对人工智能军事应用进行限制
预防事故风险是人工智能军事化应用的一个重要关切,然而博弈压力可能会增加事故发生的风险,因为它给军方带来了缩短测试时间和快速部署新的人工智能系统的压力。各国可以采取多种措施来降低测试和评估活动带来的风险,包括提升测试和评估过程的透明度,提高国际间测试和评估的标准,以及分享关于人工智能的民用研究成果等。
此外,人工智能将使自主作战系统拥有更强大的能力,随着其使用量的与日俱增,特别是当该类武器部署到有争议地区时,地区安全稳定受到破坏的风险也会随之增加。为了降低这些风险,各国可以为自主作战系统的行为制定“交通规则”,例如对系统进行标识以表明其自主程度,以及严控其进入双方达成一致的地理禁区等。
(三)与核武器可靠控制相关的建立信任措施
将人工智能整合到核武器的预警、控制以及运载系统中,会对国际安全稳定造成难以预料的后果。降低这些风险的一个选择是,各国针对将人工智能整合到其核武器系统中这一行为设定强有力的限制措施。对于在核武器领域应用人工智能这一行为,报告提出了两个可行的建立信任措施:一是有核国家间达成由人类严格控制核发射决定权的协议;二是确保人类控制所有核武器发射平台。
图4 传统的车载核武器运输发射平台
结 论
由于人工智能是一种通用技术,杜绝人工智能技术的军事化应用是不现实的,就像不可能杜绝计算机技术或电子信息技术在军事领域中的应用一样。因此,探究如何降低人工智能军事化应用过程中所引发的风险显得尤为重要。建立信任措施是政策制定者用来降低这种风险的一种可行手段,目前已有多种方案可供选择。随着专家学者和政策制定者对这类问题研究的深入,各国应该仔细考虑这些措施的具体内容,并将它与其他方法(例如传统的军备控制)结合起来,共同促进人工智能技术军事化应用的安全性和可靠性。
文字 | 李沁远、陈琳、龙坤(国防科技大学)
图片 | 来源于网络
编辑 | 孙雨阳
审阅 | 张于舒晴
友情支持 | NUDT战略研究俱乐部
声明:本文来自军事高科技在线,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。