导语

2024年9月,荷兰海牙战略研究中心(HCSS)和加拿大国际治理创新中心(CIGI)联合发布报告《军事领域的人工智能与国际规范制定》(International Norms Development and AI in the Military Domain),从七个类别维度梳理和评估了当前军事领域人工智能国际治理倡议的具体进展,分析了其优势和不足,并给出了针对性的发展建议。报告呼吁围绕人工智能系统的全生命周期,深入技术和操作细节,着手创建一个制度化的规范、规则和法规体系。元战略编译报告主要内容,旨在为读者介绍军事领域的人工智能国际规范。

一、国际规范的用途及其成功制定与条件

(一)国际规范的用途

在国际舞台上,准则是国家可以用来在高度不确定的环境中建立某种程度的可预测性的工具之一。国际准则在反复的国家间互动中产生和发展,而国家间的相互遵守取决于信任和共识。规范不具有法律约束力,但可以构成规范制度的基础。国际社会最终接受某一特定规范的程度受多种因素影响,具体来说,有三个条件有利于国际规范成功制定与推广,分别是可采纳性、可验证性和可执行性。

(二)国际准则成功制定与推广的条件

1. 可采纳性:可采纳性可以直接定义为,规范在何种程度上能得到关键行为体基于其利益和价值观的同意和支持。规范的采纳受到其他行为体是否采纳这些规范的影响,以及它们被视为伙伴、盟友还是潜在敌人。

2. 可验证性:可验证性是指国家是否遵守规范,可通过正式(例如制度化的检查制度)或非正式(例如非国家行为者的监督)手段进行验证。关于军事人工智能应用,保密性可能会成为确保其合规性验证的障碍。然而,这些障碍并非不可逾越,可以通过技术和社会信任建设等措施来解决。

3. 可执行性:可执行性是指规范遵守的程度。关于军事领域的人工智能,执行策略涉及生产、扩散、部署和运用。

二、制定军事领域人工智能国际规范面临的挑战

为军事人工智能制定国际规范面临着几个挑战,这些挑战源于人工智能应用的内在特性和最近在安全和经济领域中兴起的竞争动态。主要的六大挑战包括:

挑战 1:人工智能是一种多用途技术

人工智能的概念包含广泛的多用途技术和应用。广义来讲,人工智能可以理解为一种系统,它能以不同程度的自主性和适应性执行与人类智能相当或通常依赖于人类智能的任务。仅在军事领域,人工智能就可用于整个观察—判断—决策—行动(OODA)循环中的各种目的:从自动分析图像和生成行动方案的决策支持,到作为自主武器系统的一部分部署到战场。因此,军事人工智能规范的制定应从确定人工智能的定义开始,该定义应反映规范倡议的目标以及相关规范将会、应该和能够适用的情况,而不是试图找出一个完美的、包罗万象的定义。

挑战 2:人工智能应用的输入多种多样

人工智能应用依赖于各种输入:用于训练人工智能模型的数据、处理数据的计算能力、开发算法的人才,以及指导这些互动遵循特定价值集的机构。人工智能模型、训练数据和由此产生的算法是人工智能应用的基础,使得其可以相对容易地进行数字共享。虽然人工智能界面平台的专有后台并不总能访问,但任何人都可以使用这些程序生成输出结果。在这种情况下,对人工智能输入的预期控制将面临类似于试图建立互联网控制所遇到的挑战。

挑战 3:参与人工智能产业链的参与者多种多样

人工智能应用的设计和生产集中在私营实体内部,其创新模式受到有利的监管环境的推动。与此同时,国家和非国家行为者都可能扩散人工智能。因此,军方可能会决定发展自己的研究与试验发展(R&D)能力。然而,事实证明,军方也很难在内部获得足够的资金和人才来与私营部门竞争。

挑战 4:验证在军事领域使用人工智能的难度

通常很难确定人工智能是否以及如何被用于军事领域。一方面,系统是否采用人工智能并不总是一目了然。系统可以使用人工智能增强功能,但不一定会出现物理上的差异。同时,这些系统可以在启用人工智能和非人工智能模式之间切换,或在检查后接受软件更新。另一方面,由于人工智能可以应用于整个OODA环,因此可能很难说清人工智能在多大程度上、在决策的哪个环节影响了特定系统的结果,以及人类是如何参与其中的。

挑战 5:人工智能在国家间战略竞争中的作用

近年来国家间战略竞争的加剧也表现在军事领域。大国和非大国都在调整军事态势,加强军事能力,其中包括投资军事人工智能。由于军事人工智能将在多大程度上改变全球和地区的力量平衡还存在很大的不确定性,主要国家行为体可能不愿意对治理倡议做出承诺,以免失去可感知的竞争优势。

挑战 6:人工智能权力悖论

当前人工智能的发展速度超过了制定和采用政策的速度。各国政府都知道,当下制定的政策将导致路径依赖:今天所做的决定决定未来的政策。因此,制定政策必须经过深思熟虑和评估。然而,随着人工智能应用的不断发展,评估结果有可能在实施前就已经过时。关于军事人工智能管理的规范性讨论需要同时考虑及时性和长期性以指导将人工智能整合到军队中并加以负责任的使用。

三、军事领域的人工智能国际治理现状

针对军事领域人工智能的国际规范制定工作正在进行中,尽管尚处于早期阶段,大量倡议在人工智能规范的更广泛新兴制度复合体中开花结果,并涉及各种利益相关者。部分原因是,人工智能已迅速成为军事领域的现实,而不仅仅是未来的猜测。这些倡议不一定是互补的,但也不是竞争的。它们的任务和目标有很大差异,但也有不可避免的观点重叠点。在评估新出现的格局时,报告对13项以战略、宣言和决议形式出现的国际倡议进行了比较规范分析(见表一)。表一概述了从最新到最老的经审查倡议,得出了七个重点领域(见表二),分别是与国际法的合规性、责任与问责、可解释性和可追溯性、偏见和危害缓解、可靠性、可治理性和实践交流。

表一:对13项以战略、宣言和决议形式出现

的国际倡议进行的比较规范分析

表二:七个重点领域

四、军事领域人工智能国际治理倡议评估

(一)与国际法的合规性

国际法在人工智能治理领域发挥着基础性作用,需要进一步制定更详细的规范,以满足人工智能治理的要求。与国际法的合规性是一个切入点,至少应达成一个协议将人工智能治理纳入到国际法的框架中。这类人工智能治理规范拥有较高的可采纳性高,反映了国家行为体对国际法的持续尊重。目前,与国际法的合规性具有较低的可验证性和可执行性,既没有切实可行的评估标准,也没有关于“红线”的一致意见。

(二)责任与问责

要使针对责任和问责的国际规范行之有效,就需要更细致的考量人工智能生命周期内所有行为体的责任类型、责任分配方式以及所有权的约定方式等。由于责任和问责触及军事领域人工智能系统的核心,因此这些准则的可采纳性相对较高。不过,如果没有制定更严格的针对特定行为者的标准,这些准则的可验证性和可执行性仍然存在困难。一个可能的路径是借鉴私营组织如何将责任整合到设计和技术标准中。

(三)可解释性和可追溯性

针对可解释性和可追溯性的国际规范在可采用性方面处于中等水平。可验证性也是可行的,因为可以检查系统是否建立了自我解释机制等。不过,由于可解释性依赖于应用背景和实际效果,评估可解释性本身仍然很困难。可执行性也很复杂,不过可以要求人工智能系统的生产过程遵循相关标准以提升可执行性。因此,制定这类规范的主要挑战是如何在透明度、保密性和战略优势之间保持均衡,能够针对不同类型的人工智能应用在可解释性、可追溯性和/或透明度方面提出明确的差异化要求。

(四)偏见和危害缓解

总体而言,偏见和危害缓解类规范的可采纳性相对较高,许多国家都持赞成开放的立场。进一步制定和完善相关规范也将有助于解决上文讨论的许多问题。而问题一旦得到解决,这类规范将具备较高的可验证性,尽管其可执行性会较低。最后,一种可能的方案是在人工智能技术层面和操作层面制定协议和标准,来应对与偏见和危害相关的风险,如定义人工智能系统的一系列特定属性、标准和要求。

(五)可靠性

这类规范的可采纳性相对较高,因为可靠性本身是对所有武器系统的基本要求。在人工智能系统的开发和应用中,需要对风险进行细致的分类和管理,以便建立一个更加健全和适应性强的可靠性规范,从而在确保技术进步的同时,也能够管理和控制风险。鉴于这些因素,可以调整人工智能模型和系统的测试方式,使其具有动态性和迭代性,从而能够评估其不确定性。

(六)可治理性

这类规范的可采纳性和可执行性相对较低,而可验证性相对较高。可治理性也同样适用于非国家行为者,即使他们不是国际规范的签署方。他们可以通过开源渠道获取和扩散这些技术,增加了技术被滥用的风险。强化公私合作更好地预测和管理非国家行为体可能导致的潜在后果,包括安全风险、伦理问题和法律挑战等,如在商业机器人领域实施软件限制。

(七)实践交流

现有人工智能治理倡议普遍未阐明哪些行为者应参与制定人工智能系统准则,也很少提及旨在限制危害的原则不应成为和平利用或创新人工智能技术的障碍。在当前大国竞争的环境下,实践交流不太可能真正实现全球性或足够深入以达到预期效果。虽然国际标准制定组织在影响人工智能治理的整体讨论和发展方面发挥着重要作用,但许多组织并不关注具体的军事人工智能治理倡议。此外,与民用数据共享协议相比,在军事领域交换与人工智能系统有关的信息将涉及保密数据,直接关系到安全问题。总体而言,这类规范的发展状况并不理想,其在各项倡议中的纳入程度极低。

五、结论与建议

在人工智能开始应用于军事领域的趋势下,各国政府已开始制定规范,旨在对人工智能在军事领域的应用进行监管。迄今为止,这些规范一直在被动跟踪人工智能的发展,而不是主动引导其发展。规范制定工作面临着相当大的挑战,这些挑战涉及人工智能技术应用的广泛性、人工智能全生命周期参与者的多样性、创建人工智能应用所涉及投入的多样性、确定人工智能军事用途的难度、与人工智能相关的竞争态势,以及人工智能的发展速度与政策制定和推行速度之间的矛盾冲突。这些挑战表明,讨论军事领域的人工智能规范时,有必要根据关键行为体的利益和价值观,按照国际法所载的核心原则,考虑可采纳性、可验证性和可执行性。

近年来涌现出不少关于军事领域人工智能治理的国际倡议。这些倡议在主题和内容上不可避免地存在重叠,而且大多数倡议仍然关注概念问题,回避技术细节,缺乏可操作性。因此,离开概念层面,深入研究技术和操作细节非常重要。考虑到可采纳性、可验证性和可执行性,报告提出以下建议:

1.与国际法的合规性:重点是明确哪些核心国际法原则和机构与人工智能的军事应用相关。

2.责任和问责:考虑人工智能的整个生命周期和“生产-扩散-部署-使用”链;明确责任,包括明确划分责任领域,区分个人责任和国家责任。

3.可解释性和可追溯性:确保技术细节成为政治审议的一部分;通过考虑硬软件规格以及规则和程序来解决“黑箱”问题。

4.偏见和危害缓解:制定标准和协议,明确负责任实践的要求;重视事前预防而非事后响应处置。

5.可靠性:制定评估系统可靠性的标准和协议;促使政府和行业使用这些标准和协议。

6.可治理性:确定在链条中的干预环节及责任归属,并阐明国家和国际治理举措之间的关系。

7.实践交流:通过多方利益相关者的参与促进信息交流;制定建立信任的措施;解决私营和公共行为者之间的利益冲突。

军事领域人工智能治理规范制定尚处于早期阶段,目前已有的多个倡议有助于推动人工智能的国际治理。这些倡议可以共同形成一个制度化的规范、规则和条例体系,从而指导国家的行为。最后,人工智能的多面性和复杂性要求采取多管齐下的综合性治理方法。因此,在人工智能国际治理的议程中应该优先制定相关规范,引导人工智能在军事领域的发展和使用,在利益最大化和风险最小化之间实现最佳平衡,同时遵守基本的道德原则。

参考来源:荷兰海牙战略研究中心

参考题目:

International Norms Development and AI in the Military Domain

参考链接:

https://hcss.nl/report/international-norms-development-and-ai-in-the-military-domain/

(本文内容系“元战略”公众号原创编译,转载时请务必标明来源及作者)

免责声明:文章内容系作者个人观点,如有任何异议,欢迎联系我们!图片来源于网络,如有侵权请联系删除。

作者 | 元战略智库高级研究员

编辑 | 寂谷

审校 | Zoie Y. Lee

声明:本文来自元战略,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。