导读
2024年6月10日,美国战略与国际问题研究中心发布《算法稳定性:人工智能如何塑造威慑的未来》报告。报告通过战争游戏的形式模拟了大国在危机期间的博弈,分析了人工智能在其中的作用,回答了“在核大国冲突的危机中,人工智能与人将如何相互作用?”这一问题。报告认为,在国家安全领域,人工智能的使用在未来肯定会增加。人工智能技术将内嵌于国家权力手段之中,以获得相对于其敌对国家的决策优势。新技术将在一定程度上改变治国能力和战略特征,但不会改变二者本质。最后,报告阐述了对美国国家安全政策的建议。现将原文主要内容编译如下,供读者参考。
图1 《算法稳定性:人工智能如何塑造威慑的未来》报告封面
一、简介
“人工智能在国家安全部门的应用将如何影响危机决策?”为回答这个问题,CSIS在2023年初模拟了危机游戏。游戏被设计为随机对照试验,探索对于敌对国家的人工智能整合水平的不确定性,以及人工智能这一因素如何在危机期间影响战略稳定性。
CSIS(Center for Strategic and International Studies)最终得到以下两个主要发现。首先,在整个模拟过程中,不同水平的人工智能在战略制定和归纳情报方面无显著影响。尽管如此,人工智能仍可收集和处理更多的信息,协助相关决策的制定。放眼未来,人工智能不断增强已成为必然趋势,但报告认为这不会从根本上改变战略的制定与执行。为了适应这种未来趋势,CSIS认为美国急需开始培训国家安全专业人员来了解人工智能的本质,以及它如何在外交危机期间支持决策的形成。第二,国家间核武器战斗方式将会随着对敌政策的不断变化而变化。报告指出,CSIS强调对敌政策重要性的这一要求,很有可能让决策者对情报收集更加重视,还可能改变国家处理军控的方式。因为收集来的情报能够反映出敌对国家在战略、战术和作战层面使用人工智能的具体情况。此外,报告还指出,国家需要确保在对抗中把握好尺度,不能越过底线。这需要国家了解人工智能如何增强危机决策的能力。
二、威慑、作战网络和人工智能
目前,关于人工智能和未来战争的文献更多关注于风险和伦理方面的思考。首先,已发布的多个报告声称,人工智能将产生包括“闪电战”在内的新风险,并还有可能由于技术的不成熟性,而产生意料外的风险行动。这种观点认为,在大国竞争时代,随着俄、中、美正在日益争夺技术规则的主导地位新时代的大国竞争将以“不平衡的人工智能技术竞争”为核心。就人工智能改变军队决策过程而言,人工智能会影响国家对权力平衡的感知。随着人们对决策过程的看法发生变化,人工智能技术可能会无意触发危机升级。在战略层面上,国防规划者可以依靠人工智能,创造新战略。但在战术层面上,自动武器系统的速度可能在无意中会导致危机升级,在危机期间破坏国家之间的条约承诺。
但是以上说法存在两个问题。首先,关于人工智能的技术不成熟性的争论和相关假设还没有得到检验。其次,这些说法低估了情报在缓解紧张局势方面的作用。如果在作战网络中应用的算法有助于降低不成熟性,那么人们很可能支持通过威慑而不是战争来实现战略目的。尽管人们永远无法驱散战争的迷雾,但可以进行预测,来描述已知、未知和不可知的事物。这种逻辑是CSIS构建“战争游戏实验”的基础,下文将在这一基础上分析人工智能如何影响战略稳定性。
图2 报告中战争游戏实验的假定
三、通过战争游戏模拟危机决策
游戏改编于早期用于研究现代动态竞争的桌面游戏Corcyra。游戏将玩家置于虚构场景中,包括两个核敌对国家之间的危机对峙:绿色国家和紫色国家和一个小国——橙色国家。绿色国家和橙色国家是条约上的盟友。紫色国家和橙色国家有海上领土争端。玩家扮演绿色国家。游戏场景包括领土争端、持久竞争和网络联盟。
表1 摘自Corcyra游戏包
第一轮涉及灵活的威慑选项和危机反应。之后,每个小组收到相关危机简报——条约盟友(橙色国家)和核对手(紫色国家)之间——每个玩家(绿色国家)被要求使用外交、信息、军事和经济等权力工具来回应。
在第二轮,玩家被告知紫色国家对橙色国家的一个机场和海军基地进行了有限打击。橙色国家拦截了攻击中50%的巡航导弹,但剩下的20枚——由紫色国家的飞机和海军舰艇发射——损坏了橙色国家的一艘护卫舰,击落了两架海上巡逻机,并摧毁了一个弹药库。多达20名橙色国家军事人员在行动中丧生,另有30人受伤。还有四名绿色国家的军事顾问丧生。紫色国家表示,袭击仅限于橙色国家在过去的挑衅中所使用的军事设施,但如果橙色国家或绿色国家作出反应,它将发动更大规模的攻击。
接收到这份情报后,参与者被要求提出灵活的应对方案。首先,参与者需要从24个选项中选出他们认为合适的方案,以回应紫色国家对橙色国家进行的有限军事打击。参与者还需指明,他们希望通过选择的方案找出所影响到的紫色国家作战网络的所有层面(感知层、处理层、通信层、决策层或效应器层)。
第三轮考察参与者是否调整了核常规军事反应选项。紫色国家对橙色国家和绿色国家发动了一系列常规打击。在橙色国家,打击针对军事设施、领导层(军人和文职),并且使用了巡航导弹、徘徊弹药和特种作战部队(SOF)突袭的混合手段。在绿色国家,攻击包括打击绿色国家的情报卫星和主要预警雷达,以及存放大部分轰炸机中队的关键机场。而紫色国家的大规模精确常规打击,主要由远程打击和轰炸机以及潜艇发起,针对绿色国家的关键港口设施。橙色国家失去了超过30%的军事战斗力和50%与水处理、能源和电信相关的民用关键基础设施。其领导人在斩首行动中幸存下来。绿色国家的空军和海军力量损失10%。紫色国家发布威胁,如果绿色国家进行额外的军事打击,它将提高打击等级,包括使用核武器。
四、游戏揭示威慑的未来
(一)灵活威慑选项
在整个游戏中,每个参与者都有外交、信息、军事或经济选项可供选择。表2总结了每个参与者在初始危机响应反应期间选择反应选项的频率。分析这些选择以了解10年以上国家安全经验的参与者如何处理危机的“方式”,以达到重建威慑的“目的”。
两组实验之间没有显著差异。人工智能的存在并没有改变参与者的制定策略和危机管理的方式。参与者通常选择多种途径来向对手施压。这一发现与将人工智能视为易导致危机升级的观点相反。虽然人工智能将增强从战术到战略层面的多个过程,但国家领导者仍做出关键决策,并寻求减缓和管理危机的方法。风险可能更多地来源于人们在危机期间与算法的互动。
表2 选择的威慑方案
在A组,参与者更关注与塑造人类决策相关的策略。在第一轮中,参与者们在紫色国家的行为是否具有敌意的问题上有分歧,但都承认紫色国家试图发出信号,表明绿色国家在该地区的行动没有合法性。值得注意的是,这种对情报的专注更多是源于人类主观思考而非算法评估。参与者普遍认为危机是关于领导人在对手国家中寻求增强人工智能的办法来获得优势。
上述结论表明参与者更专注于通过外交途径改变局势,同时增加在相关地区的情报监视和侦察工作(Intelligence, surveillance, and reconnaissance全称,ISR)。小组成员普遍支持增加该地区的ISR,以支撑未来紫色国家军事部署的早期预警,并加强对友方通信和情报收集的保护。
而在B组中,研究发现各国存在更多的外交接触,参与者希望通过直接和间接的外交接触以及危机沟通来化解对紫色国家的人工智能不确定性的威胁。同时,紫色国家人工智能的优势和可能存在的局限性对小组决策产生了重大影响。小组成员希望实现绿色国家和紫色国家在人工智能问题上的相互理解。
在国际关系中,安全困境是指一个国家在增加其安全努力的过程中将导致敌对国家反制手段升级。这个概念用来解释为什么国家会被卷入军备竞赛、危机事态升级和战争。安全困境可能因新技术开发而变得尤为严重。但这些技术的出现为国家创造了战略优势。因此,人们可能预期人工智能的出现会触发安全困境和无意中的事态升级。
表3 事态升级幅度列联表
如表3所示,在两种情境之间,事态升级规模的大小没有显著差异。人工智能的平衡并没有影响国家的危机管理方法和竞争策略。经过研究发现,参与者在两种情境中都通过外交接触和利用情报寻求摆脱安全困境的方法。
(二)作战网络
如表4所示,目标偏好在不同处理方式中有变化,但没有那么大。在人工智能已知时,参与者更倾向攻击决策层,以剥夺对方的决策能力。
表4 作战网络的目标偏好表
当人工智能的能力水平已知时,参与者会将目标对准决策层,这可能是减缓危机、给予人类反应机会、降低对手借助人工智能进行报复能力的途径。处理层由大型数据枢纽组成,通常与能源和电信基础设施共址,以支持计算机供电和信息分发。打击这一层可能会引发对平民死亡的担忧,将敌对国家进一步拉入危机升级的螺旋。因此,他们讨论了如何最好地针对决策层,包括引入新形式的灵活威慑和反应选项,旨在欺骗和混淆帮助高级领导人分析危机的人工智能应用程序。他们的目标是在不触发意外升级的情况下获得信息优势。
当人工智能的能力未知时,参与者倾向于将常规武器作为目标,因为在对敌方决策能力了解不足的情况下,这被认为是最有效益的选择。由于自身对敌对国家作战网络中人工智能的应用程度缺乏了解,参与者选择通过中和能够发起报复性打击的军事能力来改变力量对比。虽然参与者讨论了使用网络攻击能力来削弱紫色国家的军事能力,但他们更倾向于采取动能打击,因为这种打击方式具有可见性,能够迅速执行,并且可以选择有限的目标范围,以适度的方式向国际社会展示决心,同时降低显著的升级风险。这种观点表明了在人工智能应用日益成熟,最终定义作战决策的时代,我们需要重新考虑军事目标的选择。
五、不断升级的风险
虽然对人工智能和核风险升级的问题上有合理的担忧,但在参与者评估风险的方式上,两组(即A和B)之间并没有显著差异。这一发现是基于对A组(已知人工智能能力)和B组(未知人工智能能力)的核升级风险评估的比较。在每一轮中,参与者选择了他们的灵活反应选项触发核升级的可能性,通过选择1到6之间的数字来表示,具体数值含义如下:
(1) 无风险;
(2) 有限常规军事对抗的风险;
(3) 常规打击削弱核能力的风险;
(4) 有限核攻击的风险;
(5) 对核能力的大规模核攻击的风险;
(6) 对民用目标的大规模核攻击的风险。
在第二轮中,参与者评估了对手可能以非核的、有限的常规报复性打击来回应的风险。当人工智能能力未知时,一些参与者认为针对作战网络中的通信层的攻击可能会导致不良算法变得更糟。在没有新信息的情况下,敌对国家的人工智能模型更可能提供错误或至少是过时的建议。
在第三轮中,当参与者必须对普遍的常规军事打击做出回应时,他们的风险评估也没有显著差异。当人工智能能力已知时,参与者更加关注有限的核打击,以及如何最好地理解对手在战术、作战和战略层面上整合到国家安全事业中的算法。而理解未来人工智能对战争影响的关键,就在于理解算法如何影响决策层。
六、政策建议
(一)接受实验和敏捷心态
CSIS认为,美国需停止对“天网”等技术相关威胁的过度担忧。同时需要进行更多实验,以校准如何最好地将人工智能整合到国家安全决策中,这些实验建立在如全球信息优势演习(the Global Information Dominance Exercise,GIDE)等已建立的平台上。这些实验连接战斗指挥部,测试他们在危机期间以及向冲突过渡时,由人工智能调节的无缝作战网络的协作能力。
(二)参与战役分析
报告指出,战争中不变的因素是争夺信息。这种对信息的争夺将发生在由人工智能应用管理的复杂作战网络中,从而产生对新的机动、安全和突袭的需求。一个国家如何在保护自身作战网络的同时削弱其对手,很可能成为未来战役中真正决定性的行动,并且是一种全新的重点突破战术(schwerpunkt)。
CSIS指出美国国防部需要探索如何打一场网络战。这些研究应结合历史战役的洞察力、战争游戏、建模和战略分析,着眼于平衡军事优势和危机升级。研究应该评估现有的联合规划在以作战网络为特征的战役中是否有效。
(三)从开放天空到开放算法,开启21世纪军控对话
报告认为,在危机中,当应用人工智能提高效率以加速决策时,领导人可能会被卷入危机升级的陷阱。如果对早期预警和情报相关的关键系统发动攻击,可能会加速这种风险。这些努力应包括第二轨道和第三轨道的演习和对话。例如,在台海危机爆发之前,让中美两国官员讨论多域打击网络和自动化如何影响战争发展。
七、结语
《算法稳定性:人工智能如何塑造威慑的未来》报告详细探讨了人工智能(AI)对国家安全和战略稳定的深远影响。报告指出,虽然AI技术能够提升决策支持和信息处理能力,但它在战略威慑中主要发挥的是辅助作用,而非根本性变革。报告中的分析和建议提供了一些具有现实意义的见解,具体可以从以下几个方面展开讨论:
首先,报告强调了AI在精确打击和情报分析中的作用。AI能够处理大量数据,并快速提取有价值的信息,从而提高决策的准确性和效率。这一技术优势在实际应用中可能带来显著的战略优势,比如在反恐和海洋监控中,AI能够实时识别潜在威胁并提供精准的行动建议。然而,这种技术优势也可能引发新的风险,例如技术故障或数据误差可能导致误判,从而引发不必要的军事冲突。因此,报告建议国家应加强AI系统的验证和测试,确保其在关键决策中的可靠性和稳定性。
其次,报告提出了AI可能对国家间的威慑关系产生的影响。尽管AI技术增强了国家的战略威慑能力,但它也可能导致新的不稳定因素,例如技术的不对称分布可能使某些国家在战略上占据优势,而其他国家则面临被动局面。这种技术差距可能加剧国际关系中的紧张局势,因此,报告建议加强国际合作和军控对话,以降低AI技术可能带来的威慑失衡风险。
对于报告中的政策建议,值得进一步思考的是如何在推动AI技术发展的同时,保持战略稳定。报告建议采取实验和敏捷的策略来探索AI技术的整合,这一建议具有一定的前瞻性。国家可以通过设立专门的研究机构和实验平台,对AI技术进行深入研究和测试,以便及时发现和解决潜在的问题。同时,加强国际层面的技术规范和合作,也是降低技术风险的重要途径。例如,国际间可以建立AI技术的标准和安全协议,促进跨国合作和信息共享,以确保AI技术的安全应用。
总之,《算法稳定性:人工智能如何塑造威慑的未来》报告为国家在AI技术的应用和发展中提供了宝贵的参考。通过加强技术验证、推动国际合作和制定相应的政策措施,可以在充分利用AI技术带来的战略优势的同时,有效应对可能带来的风险,确保国家安全和战略稳定。
文字 | 杨国强,邓皓骞,杨丽娟
图片 | 来源于报告
编辑 | 何敏
审阅 | 张于舒晴
声明:本文来自军事高科技在线,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。