作者

北京海鹰科技情报研究所 谢静

[导读]

算法战争是指通过人工智能手段进行的战争。在算法战争中,软件优势是军事技术优势不可或缺的一环。军事分析人员普遍认为,人类正迈向算法战争,数字化部队已悄然登场。在此背景下,能否加快发展算法战争,将成为影响未来高端战争胜负的关键变量。《末日算法》出版于2024年3月,两位作者乔治·加尔多里西(George Galdorisi)和萨姆·唐格雷迪(Sam J. Tangredi)既是战略和军事技术专家,也是国家安全问题专家,以清晰而严谨的文笔讨论了人工智能对军事战略制定、战役推进、战术执行的重要性。作者还重点论述了如何将人工智能与其他技术结合实现武器应用、如何通过人机编组方式控制武器、自主武器可在多大程度上由人类控制等问题。本书对了解美国人工智能军事化战略和发展情况,加快我发展人工智能军事应用相关建设极具参考意义。

本书全文约17万字,篇幅所限,仅推送部分节选。

0人工智能与人机编组

技术实力以往是美国高科技优势的基础。今天,美国的竞争对手,如俄罗斯、中国以及接受其先进技术的其他国家,也正研发并部署先进武器和能力。国际安全环境中,实力均势渐显,美国必须重新审视其技术、系统概念、军事组织和作战概念组合,以改变竞争本质,并在潜在对手面前占据优势。具备相应能力是“第三次抵消战略”的基础。

与以往的“抵消战略”相似,“第三次抵消战略”要发掘美国独特能力所带来的不对称优势,以在预算有限的条件下保持并扩大其技术和作战优势。

在解释“第三次抵消战略”的技术要素时,时任美国防部副部长罗伯特·沃克强调了无人系统、人工智能、机器学习和自主性等新兴技术的重要性。他指出,利用相关技术,未来部队可开发和运行人机协作的“战斗”网络,从而在陆、海、空、天和网络空间同步开展全域作战,形成显著优势。在战场网络中,人工智能可以达到新的自主水平并推动部分决策权下放,为人机协作和战斗编组带来全新机遇。

人机编组和战斗编组的五个方向:

■自主深度学习系统。即利用机器学习以“光速”应对人类反应过慢的事件,如网络攻击、电子战或大规模导弹袭击。

■人机协作。即利用机器帮助人类更快做出更优决策。例如F-35联合战斗攻击机、海上一体化防空火控情报、监视与侦察及作战管理系统。

■辅助人类作战。即借助可穿戴电子设备、机械外骨骼和战斗应用等工具实现人类和机器共同作战,在各种紧急情况下为作战人员提供帮助。

■先进人机作战编组。即人类与无人系统协同作战,如海军的P-8A“海神”反潜巡逻机与无人侦察机MQ-4C“人鱼海神”协同作战。下一阶段编组将研究集群战术和协同自主。

■由网络赋能、能够抵御网络攻击的自主武器可在电子战和网络环境中稳定运行。目前的运用案例是美国海军的战术型战斧导弹Block IX,其可在飞行过程中变更打击目标。

实际上,上述技术领域仍处于发展初期。美国许多武器系统的构思、设计、生产和部署过程没有作战人员实际参与,相关系统被部署到现场或海上之后才会考虑人机互动问题。鉴于此,有必要关注“第三次抵消战略”的技术领域发展现状以及是否“有前景”。这是一个没有确切答案的问题。然而已有证据表明,虽然国防部领导层对人工智能赋能美军有着宏大设想,但可能正错过开启这一征程的关键时机。可行的做法是先运用人机编组解决难度较低的挑战,取得积极成果,从而鼓励进一步发展,并展现人机编组在威慑和战争中的价值。

0自主武器的研发与部署仍具争议

美国海军的战术反舰导弹名为RGM/UGM-109B,是“战斧”导弹的改型,主要用于打击海上目标。可通过战术反舰导弹这一案例,深入探讨为何各国在开发和部署完全自主武器时犹豫不决。首先,海军的舰船、飞机和航天器都在不断移动,如果将战术反舰导弹发射至某个不确定的目标区域,原定目标可能已不在该区域内。其次,虽然战术反舰导弹可以对敌舰展开搜索,但哪怕舰船仅以每小时三十海里速度行驶,同样会辐射出很大一片不确定区域。随着不确定区域的扩大,战术反舰导弹可能无法区分军舰与商船,从而伤及无辜,因此引发了担忧。此类导弹成本高昂,若未确定射程内是否存在有效目标就发射导弹,可能造成资产浪费。与坦克、飞机和舰船不同,人工智能并非操作员看得见摸得着的东西。如果告诉操作员某种武器现在由人工智能驱动,基本上可实现自主思考,不再需要人类控制,显然操作员轻则对该武器的应用持谨慎怀疑态度,重则会拒绝使用该武器。这种现象早就存在。当未经验证的新型武器出现并威胁到当前最先进的武器时,军方可能放缓或阻碍对新技术的采纳,即使它们颇有前景。无论是长弓取代弓箭,还是机动铁甲舰取代帆船,抑或是航空母舰取代战列舰成为海军主力舰,“老兵”很少会优雅退位。除了武器与武器间的对抗外,还有其他因素会阻碍颠覆性武器的普及进程。

联合无人空战系统(J-UCAS)是美国海军和空军的无人战斗飞行器采购项目,也是人工智能驱动武器系统引发真正军事革命的典例。联合无人空战系统由国防部高级研究计划局管理。按照设想,该项目将采用隐身技术,由作战无人机携带精确制导武器,在高度反介入/区域拒止环境中实施攻击。这一任务对于有人驾驶飞机而言风险极高。然而,联合无人空战系统项目在2006年终止。导致该项目终止的原因众多,其中之一是当时美国国防部正承诺推进F-35“闪电II”联合攻击战斗机(JSF)项目。此项目至今仍是美国国防部最昂贵的武器系统项目,全寿命周期成本目前高达1.7万亿美元,旨在替代空军、海军和海军陆战队的传统战斗机。联合无人空战系统一类的人工智能驱动自主飞机可能会对联合攻击战斗机项目构成直接威胁。尽管没有确凿证据证明两者之间存在联系,但大量坊间证据表明,发展联合攻击战斗机必须终止联合无人空战系统项目。

0美军寻求利用人工智能实现决策优势

海军作战部长(CNO)约翰·理查森(John Richardson)上将在战略论坛上带领与会者回顾了70多年前发明的一种航空战术,追溯到20世纪50年代约翰·伯伊德上校的“观察、判断、决策、行动”(OODA)环路,并围绕此环路讨论海军新部署的各类技术。他表示,海军已在伯伊德提出的“观察”和“行动”阶段投入了大量资金。在大数据、机器学习和人工智能等新兴技术出现之前,海军对于OODA环路中的“判断”和“决策”环节无能为力,但现如今情况有所改变。理查森表示,现在海军作战人员有大量的数据需要处理,因此需要大数据、人工智能和机器学习来整理相关数据,筛选有用信息,帮助决策者和指挥官更快做出更佳决策。将数据转化为有用战术信息不仅对战斗机战术有益,而是对作战的方方面面都有利。

数十年来,美国海军致力于利用技术帮助作战人员恰当应对紧张环境,用更少的人更快做出更好决策,并减少失误。20世纪80年代,海军研究所启动了一项计划,研究作战人员如何在高度紧张的情况下做出更好决策。这项计划被称为“高压下的战术决策”(TADMUS),利用认知科学在理解决策者选择方面取得了新突破。这一长期计划旨在开发决策辅助系统原型,以加强海军的战术决策能力,由此开发的原型包括多模式观察站(一种将多个传感器集成在一个屏幕上的显示系统,为作战人员提供比现有系统更好的战术画面)、知识墙(一种大型垂直显示屏,可用于指挥中心,使决策者能够实时评估多个作战事件),以及其他由太平洋海军信息战中心科学家和工程师设计的原型。这些原型都经过了测试,并在帮助决策者改进决策方面取得可喜成果。

“高压下的战术决策”以及类似的海军计划颇见成效。但正如理查森上将所言,不久前能够增强决策能力的技术还不存在。如今相关技术已经出现,可利用大数据、人工智能和机器学习为作战人员提供能力,推动海战特别是海战决策实现新突破。太平洋海军信息战中心等机构正与海军研发界、工业界和学术界的合作伙伴一道,致力于确保美国作战人员能够以更少的人和更少的错误,更快做出更优决策。

事实上,美国海军,或者说美国军方,只是希望帮助作战人员做出更快、更明智的决策,并不希望在无人监督的情况下利用大数据、人工智能和机器学习发射“终结者”式无人系统打击对手。作战人员将始终在回路中,并受益于大数据、机器学习和人工智能。无论是应用于无人系统还是作战的其他方面,军方的目的都是通过尖端技术进入对手的OODA环路。时任负责研究、开发和采办的海军副部长詹姆斯·吉尔茨(James Geurts)表示:“如果一支部队能够利用人工智能先于对手做出决策,那么这支部队将战无不胜。”时任美国海军部长迈克尔·吉尔迪(Michael Gilday)上将强调了用新技术强化决策的重要性,他指出:“人工智能的强大之处在于,它能让美国先于对手做出决策并采取行动。”其他海军高官也强调了这些问题。负责信息战和情报工作的海军作战副部长杰弗里·特鲁斯勒(Jeffrey Trussler)这样阐述更优决策的重要性:“这与积累大量重要信息无关。如果不能在恰当的时间内采取行动,拥有的决策优势就会消失。重要的是决策速度。”负责计划和战略的海军作战副部长菲利普·索耶(Phillip Sawyer)表示:“海军已经掌握灵活调动部队的方式。现在研究的是如何快速做到这一点,从而获得决策优势。”

海军司令部的年度规划指南在其《部队设计》中增加了“决策优势”,并强调了新目标:“海军将利用安全、可生存和韧性网络、精确数据和人工智能加速决策周期,从而优先感知、优先决策、优先打击任何对手。海军将在全域范围内连接雷达、武器和决策者,以在无需大规模集结兵力的情况下集中火力并发挥影响力。”

时任国防部联合人工智能中心负责人迈克尔·格伦(Michael Groen)中将强调了大数据、人工智能和机器学习增强决策的方式:“想到人工智能应用时,浮现在我脑海的不只是那些发现目标后近乎瞬时打击的例子。联合部队需要做出大量决策,而人工智能可以为此提供支持。”

0美军可利用人工智能赋能决策辅助系统

从上文可知,美国高层军事首脑和其他领导人在过去几年中得到一个教训:如果没有任何辅助,人类会被海量数据淹没,无法做出最优决策,尤其是在高度紧张的作战环境下。随着国防部广泛采用战场物联网中相互连接的智能设备,其数据收集能力已显著提升。处理由此产生的海量未分类初始数据对于人类来说既耗时又昂贵。因此美军表示希望利用大数据、人工智能和机器学习整理海量数据,在战斗白热化阶段为指挥官提供有用信息,创造决策优势。在撰写本文时,海军研究所正在落实一项指挥决策计划,旨在推进认知理论和计算建模,为作战人员创建决策辅助工具,这些工具在任务中能够迅速做出反应,适时主动提供相关信息。

对于国防部官员所强调的利用相关技术加强决策的重要性,外部专家也表示赞同。战略和预算评估中心的专著《马赛克战争:利用人工智能和自主系统实施决策至上的战争》指出:“美军部队的设计部署反映出一种以消耗为主的战争观,其目标是通过消灭足够多的敌人使其失去作战能力,从而取得胜利。为更好应对与竞争大国的作战,本研究建议国防部采用新的制胜方法和作战概念,重点关注先于对手做出更优决策,而非消耗对手。决策至上的作战方法并不试图通过摧毁对手使其丧失战斗能力,而是给对手层层施压,阻止其取胜。决策至上的战争旨在使美军指挥官能够更快做出更有效的决策,同时降低对手的决策质量和决策速度。”

这就回到有人无人组队的理念,以及在高压情况下做决策时如何人尽其才,物尽其用。人工智能促进协会主席汤姆·迪特里希(Tom Dieterrich)描述这种平衡时表示:“由人类采取行动,人工智能要做的就是提供正确信息,辅助人类做出正确决策。人在回路中,或者说人是不可缺少的一环。最终目标是进入对手的OODA环路,比对手更快地做出决策。”

换言之,美军可以利用大数据、人工智能和机器学习加快决策速度,从而在作战速度上碾压对手。这种决策速度令对手无法知晓美国和其盟军的下一步动作,因此陷入“战争迷雾”中,最终做出次优决策。几十年来,美军一直配备有战术决策辅助系统。作战人员利用相关系统确定反潜战中声纳浮标的放置点,或确定坦克部署位置以应对敌方装甲部队,并正确引导战斗空中巡逻机拦截敌机。上述系统颇有成效,但它们一成不变,无法充分发挥人工智能和机器学习带来的优势。简言之,决策者不愿意放任机器制定单一解决方案(例如“执行-获胜”),而希望存在多个行动方案(COA)供其选择。这早已司空见惯,美国军官几十年来一直在接受此类教育。可截至目前,行动方案始终依靠人力策划,这在21世纪的战争中并不可行。

0美国通过制定政策为人工智能军事应用铺设道路

美国军方需要说服国会和公众,让大家相信军方有能力控制致命性自主武器系统。在2021年5月《在国防部部署负责任人工智能》备忘录中,国防部副部长明确了国防部的承诺,确保整个国防部负责任地使用人工智能。备忘录指出:“在国防部逐渐接纳人工智能的同时,我们必须有负责任的行动、流程和成果,体现国防部对道德原则的重视,包括保护公民隐私、保证公民自由。一套值得信赖的生态系统不仅能壮大我们的军事能力,还能获得终端用户、作战人员和美国公众的信任。我们引领着军事道德和人工智能安全领域,发扬美国价值观,鼓励在全球范围内发展负责任的人工智能,并加强全球合作伙伴关系。”

2023年初,国防部更新并重新发布了第3000.09号指令《武器系统自主性》,以表明国防部致力于对自主系统和人工智能的军事应用采取负责任的政策。国防部新闻稿《国防部宣布更新第 3000.09号指令“武器系统自主性”》对此承诺做了阐释。该新闻稿引用了国防部副部长凯瑟琳·希克斯(Kathleen Hicks)的话,颇具启发:“国防部致力于以负责任且合法的方式开发应用所有武器系统,包括具有自主特征和功能的系统。鉴于全球技术突飞猛进,更新武器系统自主性指令有助于稳固美国在开发、部署新系统以及保障国家安全方面的领导地位。”指令专门针对自主武器系统操作期间的责任问题做出了严格规定:“授权使用、指挥使用或操作自主和半自主武器系统的人员应格外谨慎,使用时需参照战争法、适用条约、武器系统安全规则和适用的交战规则。”

公开这份文件是为了保证国防部全力采取一切必要措施,将半自主、监督自主或完全自主武器系统的故障概率及后果最小化,避免意外冲突。这份文件展现了美国国防部,乃至整个美国,不会随着自主系统武器化打开“潘多拉魔盒”的决心。

《国防部第 3000.09 号指令》发布后不久,美国又在海牙举行的一次国际会议上发起一项倡议,呼吁加大国际合作,督促各国军队负责任地使用人工智能和自主武器。这一倡议主要是因为俄罗斯在俄乌冲突期间广泛使用了无人系统。针对该倡议的宗旨,美国国务院负责军备控制和国际安全的副国务卿邦妮·詹金斯(Bonnie Jenkins)表示:“技术发展日新月异,我们有义务针对人工智能的军事应用制定一套负责任的行为准则,并牢记军方对人工智能的应用将在未来几年内发生变化。”然而,虽然美国的提案被视为国际合作的潜在焦点,但其中只提到不具法律约束力的指导方针,概述了应如何负责任地将人工智能用于军事目的。

尽管国内外都在努力向政府和公民保证军队已解决了部署和控制致命性自主武器系统的相关担忧,但对于能不能成功做到,目前尚无定论。人们一直担心人工智能武器的发展无法控制,这势必会引发人工智能军备竞赛,导致这些系统在全球范围内扩散。虽然在联合国的支持下,人工智能军备竞赛表面上略有减缓,但实际人工智能技术的发展速度已远远超过联合国的磋商进程。如果没有实际行动,只靠磋商无法阻挡人工智能技术发展。

本书目录:

联系人:

韩老师,13611348331

联系单位:

北京海鹰科技情报研究所

声明:本文来自海鹰资讯,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。