文尼亚/编译
【知远导读】本文节选自新美国安全中心(CNAS)2023年6月发布的报告《中美竞争与军事人工智能——华盛顿如何在与北京的竞争中管理战略风险》。
本报告探讨了美国如何管理可能在与中国的关系中因军事AI创建或加剧的战略风险。报告分为四个部分。第一部分详细描述了中国如何看待AI在其民用、经济和军事现代化中的作用,并探讨了北京如何看待这些能塑造未来战争特性的新兴能力。第二部分详细说明了作者所称的五类路径,或五大因果链路,通过这些途径,军事AI的应用可能破坏战略稳定,并增加华盛顿和北京之间的战略风险。第三部分评估了沿这五类路径管理战略风险的三类政策选项。最后,第四部分为美国政策制定者提供了几项具体建议,以缓解军事AI对美国与中国战略竞争及和平与稳定构成的风险。
报告全文约2.3万字,篇幅所限,推送部分仅节选了报告第二部分“美中关系中军事AI可能创造或加剧的战略风险途径”章节中的部分内容,需要阅读报告全文的读者请直接与客服联系。
军事AI可能在中美之间创造或加剧的战略风险
中国与美国一样,正迅速将AI整合到其军事领域中。许多分析人士观察到,这可能会加剧华盛顿和北京之间本已紧张的竞争关系。但军事AI新兴能力会如何增加战略风险并不总是清晰的。本节通过详细描述五种途径,解释了军事AI的应用可能会如何破坏稳定性并增加美中之间的战略风险。以下设想的一些军事AI应用有些已经实战可用,而其他一些仍处于新兴或仅概念阶段。此外,一些战略风险源自AI按人的预期执行的行为,其他则源自AI的非预期行为。
途径1:单个能力改进叠加到一处带来军事优势
这可能是美中战略风险的最可能来源,它源自军事AI应用,但这一点也难以精确衡量,因为它也不能完全归因于AI,它涉及到整体军事平衡。军事AI在短期内最实用的用途将是相对普通的目的,这些普通的用途可能包括,帮助解放军(PLA)更有效地使用资源,因为每花费一元或一美元能产生更多的军事能力。这些普通的用途还包括帮助改进维护、物流、训练和决策支持的过程。这类“后勤”任务很少受到像“战斗尖端(Tip of the Spear)”能力那样的持续关注,因为后者会出现在战斗第一线,然而,现代军队的“使能力量”既包括诸多管理机构,又取决于它们的前线部队和武器,因此,前者也同样重要。
此外,一些新兴的军事AI系统将提高PLA的战斗能力。最初,这些改进可能是渐进的而不是革命性的。比如说在航空领域,仅举一个众多例子中的一个---“忠诚僚机”类型系统,它允许无人机与有人飞机一起飞行,这还属于渐进式的变化。未来革命性的、完全自主且无人的空中系统,由于没有人的身体限制,则能够实现更大的持久性、机动性和其他属性。
几乎在军事事务(Military Affairs)的每个方面都在上演类似的故事。如果在每个领域的军事AI改进叠加起来后,美中军事平衡都将转向对北京有利,那么冲突的风险可能会上升。随着PLA自1990年代以来快速的现代化运动,中国在其周边的自信心已随着PLA变成世界第二大强大军队而增长。在东亚,自1979年以来,美军的主导地位,结合美国安全盟友和多边组织的网络,至少保障了亚洲的“长期和平”,没有发生过大国冲突。如果北京在该地区的作战能力超过华盛顿的话,中国的军事崛起及其伴随的一些行为势必影响到东亚和平。正如美国《国家安全战略》所述,中国是“唯一既有意图重塑国际秩序,又日益拥有经济、外交、军事和技术力量去实现这一目标的竞争者”。
当然,美国及其盟友的行动也会塑造区域军事平衡,这是动态而非静态的。华盛顿及其盟友正试图利用AI增强他们的军事能力,正如北京一样。不幸但不可避免的现实是,东亚正在经历一场军事技术军备竞赛,军事AI是其中一部分。中国最终可能超越美国及其盟友的一种方式是开发和部署如军事AI这样的技术,这将给北京带来实质性的优势。
途径2:AI对决策和信息领域的影响
军事AI工具可能通过三种主要方式增加源自决策和信息领域的战略风险:①通过压缩政策制定者做出高风险决策的时间,②通过制造决策过程中的不良输入,以及③借助大规模信息作战,引诱行为者做出破坏国家审慎程度(Undermine States’Deliberations)的决策行动:
首先,AI增强的决策可能自身就加快了事件的发展速度,并压缩了领导人在不确定信息情况下采取行动的时间线。AI系统的一个推测性应用领域,就在于补充现有国家安全过程(National Security Processes),通过这些过程监控不断发展的情况、制定政策选项,并就威胁或使用武力做出决策。
对任何单一国家、在和平时期来说,加速信息处理可以帮助获得额外时间,使人类做出更准确的决策。然而,对于多个国家对抗决策来说,压缩决策时间线的净效果可能是加快危机的节奏,并从总体上只能留给领导人更少的决策时间。当计算工具可以比人类更快地执行这些任务,而国家领导人的决策时间有限,其决策行动就变成了仅仅是为了跟上对手的行动时,国家就可能会陷入仓促决策。如果每一方都担心另一方将在越来越短的时间线上行动和反应,这种决策效应尤其明显。这种时间压力可能会创造危机或加剧正在进行中的危机。即使机器执行被要求的任何分析任务“比”人类做得都更好,这些压力仍可能出现。
第二,决策支持AI可能产生错误信息,导致政策制定者做出错误决策。AI系统可能以不透明和不可预测的方式出错。如果不仔细注意,并且未对AI系统如何工作(包括它们的缺陷)有细致的了解,政策制定者可能最终基于虚构的、扭曲的或其他劣质信息和分析做出重大战略决策。即使政治层面上审慎的外交和安全政策相对不受AI增强的影响,类似的信息扭曲也可能在军事作战的战术层面发生,这使得,即使在美中军队互动的多个领域中人类仍保留对致命手段的最终自由裁量权,也可能导致意外升级。
最后,军事AI可能借助大规模影响行动(Large-Scale Influence Operations)来彻底影响决策、塑造信息领域,这些影响行动在政治危机中引入了不可预测的因素。大规模生成的、令人信服且逼真的AI文本、音频、图像或视频可能会增强信息作战的运用效果。这些作战行动可用于破坏对手的政治统一,混淆其决策,与其盟友产生裂痕,颠覆第三方行为者对其看法。许多中国战略家已经将这种宣传视为破坏敌人凝聚力和主动性的重要工具。解放军强调“认知领域作战”,这些行动“将人的意志、信仰、思维和心理作为直接的作战目标,通过改变对手的认知来影响决策和行动”。
这可能表现为使用信息战(Inflammatory Message Campaigns)来刺探、利用美中关系或国家安全的政治分歧,或可能生成假新闻报道,以让政府在危机中行动的案例投以怀疑。研究表明,北京已经开始使用AI来增强其围绕台湾地区选举的信息作战实践。如现在无处不在的ChatGPT这样的大型语言模型(LLMs)的使用可能降低成本,并可能增加这些行动的说服力。事实上,在生成式AI普及之后,许多解放军战略家担心美国在该领域的领先地位会使其对中国进行破坏性的信息战。然而,特定活动的效果可能是不可预测的,因为即使是完美生成的文本的影响仍然取决于对社会割裂程度的准确诊断,也取决于经常波动的公众舆论。如果AI激励任何一方——最有可能是北京——更频繁地涉足这些不明朗的领域,它就可能会引发或加剧政治危机。
途径3:无人自主系统
AI的主要军事应用之一可能是使无人系统——通常称为“无人机”——能够自主行动。作者将能够在很大程度上不需要人类输入就可执行任务的系统简称为“机器人系统”,同时认识到,实际上系统可能表现出一定程度的自主性。复杂且众多的军事机器人创造了日益增加的故意、无意或意外升级(Deliberate, inadvertent, or accidental escalation)的可能性,特别是在危机时期。美国和中国正在开发此类系统,不仅包括以前熟悉的装备,如飞机和潜航器,也包括更为新颖的装备置,如小型机器人“蜂群”。人工智能---无论是机器学习还是其他计算技术---如控制理论,都是自主性功能的关键组成部分。
机器人系统可以通过四种主要方式导致故意升级。首先,如果自主性功能提供了更优越的能力,政治和军事领导人可能仅因为他们相信自己在战场上的成功机会更高,而更倾向于使用武力。其次,使用机器人进行军事行动的预期风险较低(尤其在人员伤亡方面),可能使双方领导人更有可能采取这些行动。具有讽刺意味的是,对手国家同样更有可能以武力回应。当领导人感知到无人系统的暴力严重性有上限时,可能使他们在操作和响应机器人系统时更愿意承担风险,以他们操控有人平台完全不同的方式来做出反应。中国战斗和侦察无人机最近绕台湾岛航行提供了这一动态的说明性例子。
第三,增加的计算能力虽可以增强现有系统的自主能力,但也可能由此导致危机不稳定。例如,军事AI可以帮助改进高超声速武器在终端阶段的机动能力,以避开空中和导弹防御。另一方面,机器学习也可能提高空中和导弹防御的预测能力,使得部署反高超声速和其他高端导弹防御系统更为现实。更广泛地看,分析人士对高超声速武器是否不利于稳定以及它们是否能为操作国提供真正的新能力进行了辩论。综上所述,要确定AI赋能的自主性对军事技术相关概念(如成本交换比率、先发制人优势和跨域力量投射成本)的净影响还为时过早。但政策制定者将不得不密切关注军事AI的发展,以识别、寻找它可能将哪些相关变量或概念推向不稳定的趋势。
第四,低成本无人机群,在理论上可以创造出大规模打击对手核武库的常规方式,形成“反力量”1常规打击核武库的新选项。这种潜在能力有助于加剧一个更大趋势,该趋势可能会打破战略平衡:中国分析人士经常表达对美国有效“反力量”核打击可能性的担忧,在这其中就包括使用先进的常规武器,如无人机群。他们认为这种可能性破坏了他们所说的美中之间的“非对称战略稳定”,威胁到北京的二次核打击报复能力。他们认为,北京的核武器建设至少部分是旨在恢复该领域的平衡。
再次,与这种无人机群运用相关的动态,可能导致无意升级——即由有意采取的行动引起,但产生了意外效果的升级。由于机器人系统还相对较新,围绕它们的期望也正在演变之中,国家可能会误解对手是否将某一行为视为跨越了某种升级阈值门槛。如果一个国家“在假设其对手将这样的行为视为国际竞争的正常推拉的一部分条件下”,击落或夺取敌方资产,但对手却将其视为挑衅甚至战争行为,那么第一个国家可能就无意中跨过了一个重要的战略红线。
乍一看,历史记录表明,涉及无人系统的事件不太可能导致严重的升级。在过去几年中,伊朗和俄罗斯都(俄乌冲突中)击落了美国的无人机;在这两个例子中,美国都没有用武力报复。在这些例子中,两个国家似乎都将无人飞机视为比有人飞机引发升级的催化作用要小。美国和中国也曾遇到类似的情况,只是不那么严重:2016年12月,中国在某海域夺取了一艘美国海军无人水下航行器(UUV)。该事件迅速得到解决,没有升级。此外,中国也曾使用无人机作为其更广泛的袭扰台湾地区军事力量的一部分,或作为争夺台当局对台湾本岛及其外围岛屿的领土、水域和领空管理行动的一部分。台湾军事人员击落了这些民用无人机,但没有引发立即的军事报复。
然而,上述例子不应导致忽视,因为它们缺乏未来美中危机想定中的某些重要特征。伊朗无人机和美中UUV事件都没有涉及武装对抗(他们是情报采集装备)。在俄罗斯案例中,虽然涉事无人机具有攻击作战能力,且事件发生在持续的、紧张的政治危机中,但它也发生在双方都对美俄直接对抗保持谨慎的背景下。在潜在的未来台湾地区对抗行动中,美中高端战争将会存在鲜活的升级可能性,没人能保证针对机器人系统的行动,特别是针对武装机器人系统的打击,还会保有同样的克制。
最后,自主系统可能在错误、故障或有限灵活性的情况下导致意外升级。如果机器被赋予错误的任务参数或如果它们发生故障,它们可能会误入对手领土;在海上、空中或太空挑衅对手的民用或军事力量;或意外伤害人类。这可能导致触发危机或导致危机升级,这取决于对手的反应。即使它们被赋予正确的参数并按程序执行,机器人系统也可能无法调整以应对迅速变化的“样本外”环境。或者它们原本可以正确地按程序执行,但政治环境或物理环境发生了变化。这样环境变化可能导致它们采取与人类在变化的情况下所能做出的(或希望机器人做的)完全不同的行动。此外,根据不同配置,自主系统的一个优势是它们相对较低的单位成本。这可能意味着在争议地区能独立自主作战的资产更多,因此发生事件的可能性更大。
途径4:情报、监视和侦察
军事AI已经赋能执行情报、监视和侦察(ISR)任务的很多新工具,并且未来可能会做得更多。军事AI可以与旧技术结合以做新事或以更好更经济的方式做事。可能的例子包括将AI与气球或微卫星星座结合,以在“近空间”进行监视,或利用集群能力进行ISR无人机监视。当围绕此类监视技术的规范不存在或薄弱时,就可能会引发危机。1950年代和1960年代高空飞行器和卫星ISR的出现导致了危机发生,尽管当时艾森豪威尔政府也曾试图与苏联就这些能力的运用达成共识,但直到冷战的最后几天,美国才重新提出关于空中侦察的国际协议的想法,并导致1992年美俄签署《开放天空条约》。
接下来,军事AI(在ISR领域的运用)的一些改进,可能会具备改变军事技术格局的结构性要素的能力,比如核军事技术格局。AI系统可以使来自各种传感器的大规模数据处理更加便捷,以追踪陆地上的移动导弹系统,甚至在海上追踪核潜艇,特别是如果与其他新兴技术结合---如量子传感器,虽然这些应用仍然只是理论上的,但在中期可能是可行的---就更能实现这些作战行动。如果这些ISR技术在核领域的运用得以实现,将创造具有破坏性效果的单向核“透明度”,由此可能进一步破坏核三位一体中至少两个部分的生存能力——这都归结于现有(核)军事技术系统具有难以被敌方力量发现和摧毁的属性——通过使敌方能够追踪和定位这些资产进行“反力量”打击。当然,一些分析师对这些预测持有异议。
尽管如此,一个真实的可能性是,军事AI具有极其不稳定的影响,突然使那些正是因为其生存能力而被开发和部署的设备变得脆弱。对突然遭受首次(核或常规智能)打击的脆弱性的恐惧可能会对领导人造成“或使用”、“或失去”核武的决策压力,从而增加核升级的风险。实际上,中国学者已经注意到了这一趋势,以及注意到常规AI赋能无人机对二次核打击能力构成的潜在挑战。清华大学国际安全与战略研究中心的陈琦和朱荣生解释说,中国和俄罗斯“担心[美国]强大的侦察能力可能成为对他们更先进的报复力量的威胁”,并指出“AI需要做的就是破坏报复能力的水平”以引发回应。此外,对敌人可能获得特定能力的看法或恐惧,有时就足以创造脆弱感,甚至促使采取反制措施,无论这些实际上是否存在或在相关时间框架内存在可能有多低。
当然,在某些情况下,更大的透明度也可能是稳定的。比如,AI可以改进雷达追踪系统和其他监视工具。一些分析师认为,在核威慑和军控领域,军事AI可以通过多种应用增强战略稳定性并降低风险。这些包括提供更早的警告,生成更准确的信息以消除误解或纠正传感器故障,改进军事规划和战争模拟,以及赋能新的军控验证工具。
目 录
执行摘要
一、引言
二、北京的AI计划和AI在中国军事现代化中的角色
1.中国独特的人工智能发展和部署模式
2.人工智能与中国的军事现代化
三、美中关系中军事AI可能创造或加剧的战略风险途径
途径1:单个能力改进结合到一起带给军事优势
途径2:AI对决策和信息领域的影响
途径3:无人自主系统
途径4:情报、监视和侦察
途径5:指挥、控制和通信
四、管理来自军事人工智能的战略风险的选项
1.通过阻碍中国军事AI和发展美国能力展开竞争
2.单方面负责任地管理军事AI
3.双边和多边外交
五、对政策制定者的建议
1.采取大胆行动,限制中国在军事用途上的AI进展
2.保持美国军事AI能力处于尖端
3.制定、推广和实施负责任的军事AI规范和最佳实践
4.积极与志同道合的盟友、伙伴及多边机构就军事AI问题进行接触
5.与中国就军事AI相关的风险削减和信任措施进行谈判
6.继续追求构建降低美中风险和危机管理的通用机制
7.使军事AI成为与中国有关核武器和战略稳定外交的基本支柱
8.采取措施减少由军事人工智能固有的速度和不可预测性加剧的战略风险
9.优先对中国军事人工智能能力进行情报收集和分析,并做净评估
六、结论
【1】对于核武器来说,包括“反价值(Counter Value)”和“反力量(Counter Force)”两种运用模式,前者用于打击高价值政治经济军事目标。而后者,仅用来打击高价值军事目标。
声明:本文来自知远战略与防务研究所,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。