知远战略与防务研究所 文东民/编译

自:西点军校现代战争研究所

【知远导读】本文编译自美国西点军校现代战争研究所的一篇文章《美国军队与人工智能不稳定的合作关系》。该文认为,与普遍觉得军人会自然而然地信任AI的假设相反,美国军人可能对在战场上与人工智能增强的军事技术平台并肩作战持有怀疑态度。他们与AI合作的意愿受到了一系列技术水平、作战和监督考虑的影响。这些发现对于进一步研究人机协作、军事现代化以及相关政策具有重要意义。

人工智能技术的进步加剧了关于发展致命性自主武器系统的辩论。这些杀手机器人能够独立识别、追踪和打击目标,无需人类监督,并已经在加沙、利比亚、纳戈尔诺-卡拉巴赫和乌克兰的冲突中得到使用。批评者警告称,战争中自主武器的增加可能导致滥用,并引起意外后果,如危机升级和平民伤亡。然而,支持者持相反观点,他们强调机器人在未来冲突中的重要作用,并认为通过人工智能技术增强的武器将促进人机协作,帮助国家在保持对敌方致命优势的同时,实现最小化的附带损伤。

尽管人工智能迅猛发展,且新技术在战场上的应用不断增加,但美国军人对这些技术的信任程度尚不明确。事实上,学者们还没有对这个问题进行系统研究,这是很令人费解的。原因有如下两个:首先,决策者、学者和军事领导人一致认为,军人的信任对于人机协作至关重要,他们需要与被人工智能增强的军事技术产品合作,继而提升战场表现。尽管有一定的指挥链,但由于军人们直接负责测试、装备和管理相关军事技术平台,所以并不能保证他们会轻易信任人工智能。研究显示,由于缺乏军人用户的信任,人工智能平台的军事能力可能无法充分发挥,反而产生了本应避免的薄弱环节,比如针对打击目标的人工批准时间延长可能会对作战结果产生消极影响。

为了确定导致军人对人机协作树立信任的塑造性因素,以及他们是否相信新的人工智能增强能力会如预期那样表现,笔者在宾夕法尼亚州卡莱尔的美国陆军战争学院和罗德岛州纽波特的美国海军战争学院的美国高级军官中进行了调查。这些军官经过了精挑细选,他们未来可能会成为将军甚至海军上将,并在未来的冲突中运用新兴能力。因此,他们对人机协作的态度非常重要。

与美国军队中普遍认为的军人会自然而然地信任人工智能的假设相反,我发现军人可能对在战场上与经过人工智能增强的军事技术平台并肩作战持有怀疑态度。他们合作的意愿受到了一系列技术精度、作战和监督考虑的影响。这些发现对于进一步研究人机协作、军事现代化以及相关政策具有重要意义。

信任的三大要素

2017年,雅克琳·施耐德和朱莉娅·麦克唐纳在《外交事务》期刊上发表了论文《为什么军队不信任无人机:“温暖和舒心”的问题》。文中指出,士兵对无人机的偏好与作战风险有关。当地面部队受到攻击时,他们更愿意信任有人驾驶的飞机,而不是无人驾驶的飞行器。虽然这些发现引起了争议,尤其是来自无人机操作员们的质疑,但该研究为在美军不同群体中进行对无人机信任态度的基准测试提供了依据。这些群体包括负责将无人机与地面部队连接的人员,如联合终端攻击控制员和联合火力观察员。

目前,我们缺乏可比较的证据来了解军事人员在战场上与人工智能合作时的信任问题。学者们大多数只研究了普通公众对人工智能的信任态度,比如在无人驾驶车辆、警察监控或社交媒体领域中的人工智能应用,只提出了需要进一步研究军事人员偏好的建议。尽管一些学者研究了澳大利亚和韩国士兵对人工智能的态度,但这些研究并未具体探讨对于人机协作至关重要的信任问题。而且,这些研究更倾向于描述性分析,而非实验性研究。尽管有一些研究探讨了人工智能性能和士兵信任之间的关联,但目前还没有确凿的证据表明二者之间的因果关系。

笔者的研究方法则与众不同,是对人工智能增强的军事技术平台的九种属性进行了测试,这些属性受到对公众态度(关于无人机和人工智能)的广泛研究的启发。同时,我还研究了这些属性与战地军人对人工智能信任态度的关系。具体来说,我进行了一项调查实验,改变了这些能力的使用方式,并研究了产生的结果以及监督机制。为了了解在考虑这些因素的情况下,军人对并肩作战的人工智能平台的信任程度,我于2023年10月在卡莱尔和纽波特的战争学院进行了调查。受访者首先阅读了一个随机场景,要求他们考虑一场假想的战争,在这场战争中,美国军队使用了一种具有不同属性的新型人工智能增强军事技术。然后,我让他们使用5点李克特量表来评估他们对这项人机协作技术的信任程度,其中1对应于“非常不信任”,5对应于“非常信任”。我使用了统计学方法来分析数据,包括计算受访者在不同属性变化下对人工智能增强军事技术的边际平均信任度(见图1)。

值得注意的是,我采集的样本并不代表美国军队,也不代表美国陆军和海军。这只是一个简易样本,有助于深入了解军人对人机协作的信任。我的调查收到了近百份高质量回复,产生了800多个独特的观察结果,这得益于我的调查设计具有很强的统计能力。这意味着受访者从成千上万种可能的属性配对中随机获得了九种人工智能增强军事技术的情景,然后评估他们在战场上与机器合作时的信任态度。这群军官也为我的预期提供了严格的检验。他们年龄较大,这表明他们可能本能地不信任经过人工智能增强的能力。因此,虽然我不能从调查结果中得出概括性的结论,但我提供了有关美国军人在人工智能增强军事技术的使用、结果和监督方面的信任态度变化的首次说明。

总的来说,我发现部分军人质疑我的研究情境中人机协作的价值,这种情境包括美国与强敌对手之间可能发生的战争。军人与人工智能增强的军事技术平台合作时的信任态度基于三个总体因素的结合,包括平台的技术规格、其被公认的有效性和监管监督。

图一:该图显示了军人在考虑到人工智能增强军事技术的不同属性的情况下,对人机协同作战信任态度的边际均值。换句话说,它展示了军人对每种人工智能增强军事技术属性的平均信任水平(用黑点表示,也称为点估计)。水平条展示了每个黑点或点估计周围的95%置信区间,显示了军人对每种人工智能增强军事技术属性的信任范围。受访者的信任水平分布已从1到5重新调整为0到1,与现有研究保持了一致。

首先,我发现在进行非致命性任务如情报收集时,军人对合作的人工智能的信任会增加。当机器不是完全自主的,也就是说有人类监督时,信任也会增加。当机器高度精准,即误报率低或目标误识别错误率最小化时,信任也会增加。与其他受访者一致,一名军人指出“对于没有人类负责的打击系统,我希望它的精度能达到95%以上。”当机器自主执行致命行动,比如打击任务时,军人对与其合作的机器的信任概率会急剧下降。研究显示,公众对于杀人机器人的支持程度也会受到这一考虑因素的影响,导致支持度下降。

其次,我发现军人对人机协作的信任还取决于机器是否能最大程度地减少平民伤亡、最大程度地保护友军,并对任务成功做出最大程度的贡献。这一结果表明,军人在确定对人机协同作战的信任时融合了不同的道德逻辑。一位受访者解释说,信任取决于“平民伤亡与美军伤亡的比率。我不相信任何可能造成1000-2000名平民伤亡来拯救0-2名士兵的系统。然而,如果能够拯救至少同等数量的美国士兵,我愿意接受相应的平民伤亡数字。”另一位受访者补充道,信任取决于“预计的平民死亡数与预计的军人死亡数的比较。”

这些发现很重要,因为它们与学者的观点相矛盾。例如,哥本哈根大学的尼尔·雷尼克和女王玛丽大学的埃尔克·施瓦茨认为新兴技术导致了无风险或后英雄式的战争。但即使军事行动中应用了被认为可以增加部队保护水平的人工智能技术,军人们仍然认为自身在战争中受到伤害的风险更大了。我的研究也与一些专家的观点相矛盾,比如美国国防大学的TX汉姆斯和米切尔航空航天研究所的大卫·德普图拉,他们认为这些规范性问题对美国军队采用杀手机器人来说并不太重要。我的分析则表明,军人对人机协作的信任程度很大程度上取决于道德考量。

最后,我发现当人工智能增强的军事技术的使用符合国际法时,军人也对与之合作抱有信任。与其他人类似,一位受访者解释说,“尽管我信任美国的监管和监督,但重要的是应确保遵守国际法而不是国内法。”这一结果在任务成功前景和国际竞争变化的条件下都是一致的。如果人工智能增强的军事技术对任务的贡献更大,且其使用符合国际法时,军人对与其合作也会抱有更多的信任。监督的缺失反过来也会降低军人对人机协作的信任程度,即使他们知道被视为对手的国家,比如中国或俄罗斯,也在采用人工智能增强的军事技术。

对人工智能的信任:难以获得,易于失去

这些研究结果表明,军人对人工智能的信任是复杂且多维的。不同军衔军人间的代沟也可能让信任变得更加复杂。2023年11月,我将我的调查实验扩展到了美国各地正参与预备军官训练的学员。将近五百名学员完成了调查,共得到了四千多个独特的观察结果,极为罕见地揭示了这些所谓的数字原住民是如何看待人机协作的。

我发现,这些年轻学员相对于他们未来的指挥官更加信任与人工智能增强的军事技术平台的合作,但原因并非学者通常所认为的,例如错误的乐观主义。至关重要的是,这些学员与人工智能的合作意愿更强,尤其是当人工智能对任务成功能发挥最大的贡献作用时,即便这些能力的准确性较低、报误率较高、目标识别能力不足。

这些调查结果对研究、军事现代化进程和政策制定都有重要的影响。就研究而言,我的研究结果表明需要在这一领域进行更深的挖掘,特别是在冲突类型、使用层级、武器(包括核武器)以及目标方面进行更多的研究。目标可以涉及个人、物理结构以及网络等不同方面。正如埃里克·林·格林伯格对无人机升级潜力的研究所反映的那样,这些考虑可能也会影响军人在战场上对于人机协作的信任。

就军事现代化而言,我的研究发现军事领导者应进一步澄清那些鼓励发展人工智能增强军事技术的作战概念;指导人工智能技术整合的条令;涵盖哪些领域,在哪个层级,以什么编制,为了什么目的;以及管理人工智能使用的政策。换句话说,需要明确制定关于发展和整合人工智能增强军事技术的策略、条令和政策。将管理人工智能的概念、条令和政策与军人的期望保持一致,以鼓励更多人对人机协作树立信任感。最后,如果军人对人机协作的信任在一定程度上受到国际监督的影响,决策者应解释美国关于自主武器系统的政策如何与国际法以及其适用条件相一致或相异。

尽管军事领导人声称人机协作对未来战争的成功至关重要,并经常假设军人会信任与人工智能增强的军事技术平台的合作,但我的分析显示,这种信任并非理所当然。信任就像个人品格一样,难以获得,易于失去。人工智能于诸多领域和应用(包括军事领域)的令人眼花缭乱的发展,初步地为美国政府和军事领导人提供了一个便利的路线图,以增强军人对人机协作的信任。根据分析人员的结论,人工智能在战场上的影响将愈来愈重要,如果我们不重视这些关于军人对人机协作信任问题的观察结果,很可能会错失在未来战争中取得胜利的机会。

声明:本文来自知远战略与防务研究所,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。