2024年1月21日,美国安全与新兴技术中心(CSET)研究员发表评论文章《美国如何为人工智能的军事使用制定国际标准?》,文章回顾了美国发布《关于在军事上负责任地使用人工智能和自主技术的政治宣言》(简称“宣言”)一年来的进展,包括政策背景、全球军事人工智能治理建议中的差距、宣言重点和未来展望。元战略整理和编译文章重点内容,为评估美国的这一宣言和探索人工智能军事化应用前景提供借鉴。
一、政策背景
2023年2月16日,美国发布题为《关于在军事上负责任地使用人工智能和自主技术的政治宣言》,随后在荷兰海牙的人工智能峰会上,美国公布了新的人工智能军事应用的两大支柱:合理的人类判断和正式的指挥链。11月,在英国举办的人工智能峰会上,美国副总统哈里斯就该宣言发表评论:“美国将继续与其盟友和伙伴合作,将现有的国际规则和规范应用于人工智能,并努力创造新的规范。”截至2024年1月12日,签署该宣言的国家已达51个。此外,美国宣布,将于2024年第一季度召集支持国,举行会议,商讨下一阶段的工作。这一宣言的发表正值关键时刻,人工智能在战场和作战室中的应用日益增多。虽然人工智能的发展日新月异,但人类对这些系统的了解却远远不够。再加上日益紧张的地缘政治局势,考虑不周和缺乏信息的人工智能军事应用部署可能会增加事故和误判的可能性,而如果当前的国际人工智能治理未能重视自主武器等人工智能军事应用的话,其后果无法想象。
二、全球军事人工智能治理建议中的差距
正在进行的巴以冲突和乌克兰危机生动地说明了人工智能和自主技术在战争中发挥着越来越重要作用,从优化炮火的算法到目标识别计算机视觉模型,其工作速度比人类团队快近50倍。人工智能的应用还超越了动能军事行动。与核武器、爱国者导弹或航空母舰等特定武器或平台相比,人工智能更像电力或内燃机,是一种通用的使能技术。人工智能在作战的各个方面,包括作战计划、战争博弈、情报到战场上的目标瞄准和机动,都越来越普遍,这凸显了人工智能的多功能性和广泛适用性。目前,世界各地的军队都在大力投资人工智能,用于情报、监视和侦察(ISR)、后勤、网络安全、指挥和控制、各种半自动和自动车辆,以及提高后勤、招募、工资、维护等日常职能的效率。鉴于人工智能的通用性和起源于商业部门,一系列国家和非国家行为可能会很快掌握人工智能技术。
国际上对人工智能军事用途的讨论主要集中在致命性自主武器系统上,通常被其批评者称为“杀手机器人”。而关于致命性自主武器系统的讨论仅涉及人工智能军事应用的一小部分。美国在荷兰的人工智能峰会主要敦促签署国承认人工智能在军事方面日益重要的意义,以及安全和道德标准的重要性,并没有引入实质性的新措施或指导方针。其他单边、双边和多边人工智能治理工作的重点是安全、合乎道德和负责任地使用人工智能。这些努力往往为军事应用设立了例外和排除条款,承认适用的规则、期望、规范和用途各不相同。例如,美国白宫关于人工智能的行政命令缺乏对安全领域人工智能的实质性覆盖,而是通过一份国家安全委员会备忘录对此进行了阐述。其他多边努力,例如在英国举行的人工智能安全峰会上发表的《布莱切利宣言》,仅适用于人工智能的商业应用。
以上做法在国际人工智能治理方面造成了明显的差距,并没有专门针对人工智能的军事领域,政策制定者和外交官未能解决人工智能在致命性自主武器系统之外的用途问题,也未能将其他更普遍的军事应用纳入其中,这使得冲突和国际竞争可能会引发本可避免的伤害、事故和潜在的战略不稳定。人工智能系统极易出现问题,偏差、中毒攻击、缺乏足够的训练数据,或需求对齐困难等缺点。这些缺点都可能导致系统尽管可以在测试环境中完美运行,但在真实世界条件下却会出现问题或表现出人意料,从而导致任务失败。这些故障很容易被对手误解,而且由于许多人工智能系统缺乏透明度,可能会使对它们的解释变得复杂,增加意外升级和非故意冲突的风险。
三、宣言的重点
宣言是针对人工智能军事应用的最全面的国家级多边建立信任措施。建立信任措施是一类信息共享和提高透明度的工作及工具。它们在冷战期间得到普及,被用来帮助大国竞争者管理不确定性,最终目的是降低非蓄意核战争的风险。像通过宣言来建立的信任措施可以用澄清意图来帮助管理人工智能风险,鼓励各国确保其所使用的系统是可靠的,不太可能出现故障。2023年2月,在荷兰举行的人工智能峰会上公布的初版宣言中,美国承诺遵守十二项原则。这些原则包括确保人工智能系统具有可审计的方法,要求减少偏见,并保证人工智能系统的设计和工程与其预期功能相一致,而且这些功能是明确和定义清晰的。修订版将这些原则合并为10项原则,并增加了新的内容。新增内容包括解决人类与人工智能互动时出现的独特挑战,如人类过度信任和过度服从机器的可能性(称为自动化偏见)。它还讨论了各国利用军事人工智能“加强国际人道法的实施,改善武装冲突中对平民和民用物体的保护”,还删除了其他一些部分,如有关核武器决定的条款。
四、未来展望
该宣言只是第一步,不能成为全球负责任地在军事上使用人工智能和自主性的唯一步骤。像通过宣言来建立信任措施应具有累积性和互补性,并随着时间的推移形成规范,这里指的是人工智能使用规范。建立信任措施在冷战期间之所以奏效,是因为它们相互促进,解决了同一问题的不同方面和角度,降低了与引进新技术相关的不透明性增加的风险。同样,为了产生最大的影响,宣言将需要成为众多倡议中的一个,这些倡议为人工智能的军事使用制定了指导方针,这些指导方针在关键要素上趋于一致,共同塑造了这一领域负责任的行为。目前最关键的是保持实施宣言的势头和进展,并确定衡量全球在这些原则方面进展的方法。
签署国之间的持续对话对于明确性、透明度以及分享国内和国际在遵守这些原则方面的经验教训至关重要。美国很早就通过了国防部指令3000.09(武器系统的自主性),并在其人工智能和数据战略中强调了道德原则,这表明美国在军事人工智能领域已开创了先例,致力于提高透明度并发挥领导作用。然而,最初错失了与其他国家的积极接触以鼓励类似的方法的机会。如果美国积极推动其他国家采取类似政策,努力“以身作则”,或许会取得更大进展。自2020年以来,美国主要通过国防部的“国防人工智能伙伴关系”,协力推动增加各国分享军事人工智能最佳实践的渠道。然而,该论坛的参与国有限,只有16个国家。
除了直接的会议外,还应建立更多并行的单边、双边和多边努力,以直接解决如何实施宣言中概述的原则和管理未明确涵盖的特定人工智能使用情况。例如,联合国正在开展以自主武器系统为重点的工作支持并帮助加强宣言中概述的原则,展示如何在实践中针对特定类别的系统实施这些原则。由于更新后的宣言没有对核领域的人工智能做出明确承诺,核大国应单独做出专门的后续承诺。与宣言中的内容更直接相关的其他倡议,包括与技术专家和其他专家建立二轨对话,重点关注评估机器学习过程的最佳实践,其中一些对话已经开始。战争的特点正在发生变化,新的、潜在的变革性能力正促使各国改变追求国家利益和作战的方式。促进负责任地在军事上使用人工智能和自主性的规范制度化,需要成为国家和国际的优先事项。
(本文内容系“元战略”公众号原创编译,转载时请务必标明来源及作者)
文章译自:美国安全与新兴技术中心官网
文章题目:
How the United States Can Set International Norms for Military Use of AI
文章链接:
https://www.lawfaremedia.org/article/how-the-united-states-can-set-international-norms-for-military-use-of-ai
免责声明:文章内容系作者个人观点,如有任何异议,欢迎联系我们!图片来源于网络,如有侵权请联系删除。
编译 | Allen Wang
编辑 | Zoie Y. Lee
审校 | 流景
声明:本文来自元战略,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。