2024年7月3日,美国昆西国家事务研究所在线杂志“治国方略”网站刊登高级研究员威廉·哈东的文章《美国硅谷:这些“爱国者”只是厄运的预兆吗?—疯狂的初创公司希望利用人工智能武器缩短杀伤链》。文章认为美国硅谷风险投资公司和军事初创公司对军事人工智能狂热是出于对巨额利润的追求,政商勾结倡导新战争方式的驱动因素是利益和利润。作者提醒不能由利用人工智能牟取暴利的人和公司主导人工智能使用规则的制定。现将全文编译如下。

硅谷的风险投资公司和军事初创公司已经开始积极推销一种深度融入人工智能(AI)的自动化战争技术。这些公司正全速推进这项新兴技术,基本上忽视了未来可能导致平民被屠杀的风险,更不用说可能导致主要军事大国之间危险升级的可能性了。这种一哄而上行为的原因有对“奇迹武器”的错误信仰,但更重要的是受巨额利润驱动。

新技术狂热者

尽管有一些军方人士对人工智能武器的未来风险感到担忧,但美国防部的领导层却完全赞同。2023年8月,美国防部副部长凯瑟琳·希克斯在美国最大的军火工业贸易组织—国防工业协会上发表演讲,首次向全世界公布了国防部对新兴技术的积极承诺,并借此机会宣布了“复制者”计划。该计划旨在帮助创造“一种新的技术状态,在所有领域积极利用自主系统,自主系统成本更低,减少置身火线人员数量,并且可以在较短准备时间内进行更改、更新或改进。”

希克斯对国防部和军火制造商发动未来技术战争的能力充满信心,也得到了硅谷和其他地区一群新时代军国主义者的支持,如帕兰蒂尔公司的彼得·泰尔、安杜里尔公司的帕尔默·卢奇和安德森·霍洛维茨公司的马克·安德森等风险投资家。

爱国者还是奸商?

这些倡导新战争方式的企业将自己视为新一代爱国者,时刻准备着并认为能够成功应对未来的军事挑战。

安杜里尔公司博客上的一篇冗长宣言《重启民主兵工厂》就是一个很好的例子。该文鼓吹,硅谷初创企业在打赢未来战争所需的技术方面优于洛·马公司等老牌军工巨头。“软件将改变战争的方式……未来战场会充斥着人工智能无人系统,它们以惊人的速度作战、收集侦察数据和通信。”安杜里尔公司目前制造自主无人机、自动化指挥和控制系统以及其他旨在加快军事人员识别和摧毁目标速度的设备。

安杜里尔公司创始人帕尔默·卢奇的导师泰尔指出了新武器初创公司领导人与冷战时期巨头的不同。首先,卢奇全力支持特朗普,而像洛·马这样的军工巨头负责人会尽力与两党都保持良好关系。其次,硅谷初创公司对大国的批评也更加尖锐,而大型承包商通常通过智库来表达对大国的批评和对全球战争的支持。

帕兰蒂尔公司首席战略官克里斯蒂安·布罗斯对下一代战争的观点被看做是硅谷军国主义者的代表。他长期从事军事改革,其著作《杀伤链》堪称自动化战争倡导者的圣经。该书的主要观点是:战争赢家是能够最有效缩短“杀伤链”(从发现目标到摧毁目标之间的时间)的一方。他在书中假定,下一场科技战争中最有可能的对手是大国,进而夸大了大国的军事能力,同时夸大了大国的军事雄心,并坚持认为,在发展新兴军事技术方面超越大国是未来获胜的唯一途径。布罗斯缩短“杀伤链”的设想会带来巨大风险,因为,随着行动决策时间越来越少,将人类“排除在闭环之外”的诱惑只会越来越大,将生死决策交由没有道德准则的机器做出,容易发生所有复杂软件系统固有的灾难性故障。

布罗斯对当前军工复合体的批评有些是正确的。少数几家大公司在制造航母和坦克等越来越脆弱的巨型武器平台上赚得盆满钵满。国防部耗资数十亿美元建立庞大、昂贵的全球基地网络,而该网络本可以被更小、更分散的军事基地取代。但遗憾的是,布罗斯的另类愿景所带来的问题比解决的问题更多。

首先,硅谷推广的软件定义系统并不能保证一定能如广告宣传的那样发挥作用。毕竟,从越南的电子战场到里根灾难性的“星球大战”导弹防御系统,失败的“奇迹武器”由来已久。即使更快发现和摧毁目标的能力得到了提高,但像伊拉克和阿富汗这样利用这些技术打响的战争还是惨遭失败。其次,新一代军事技术被过度推销。如《华尔街日报》的最近一项调查表明,美国向乌克兰提供的用于对俄防御战的顶级新型无人机被证明“故障多、价格昂贵”。最后,布罗斯所倡议的方法会更易激发战争,因为技术狂妄会灌输这样一种信念:只要美国投资组建一支灵活的新型高科技部队,美国就能在冲突中“击败”有核国家。其结果是数以十亿计的私人资金涌入那些寻求拓展技术战争领域的公司。据估计,每年的资金投入从60亿美元到330亿美元不等。而根据《纽约时报》的报道,在过去四年中,资金投入已达到了1250亿美元。无论数字如何,科技行业及其金融支持者都意识到,下一代武器装备会带来巨额利润,他们不会让任何人阻挡脚步。

与此同时,《纽约时报》的埃里克·利普顿在调查中发现,已经在推动人工智能战争步伐的风险资本家和初创公司也在忙于雇佣前军方和国防部官员协助投标。美国前国防部长马克·埃斯珀就是其中之一。这种关系最可能的驱动因素是利益和利润。

哲学家之王

打造高科技战争机器的另一位核心人物是前谷歌首席执行官埃里克·施密特,其兴趣远远超出了军事领域。施密特意识到了人工智能的潜在危险,但同时也是推动人工智能军事应用的核心人物。虽然他没有像硅谷的一些初创公司那样采取救世主式的做法,但他看似更深思熟虑的做法是否会促进人工智能武器向更安全、更合理的方向发展,还有待商榷。

在谈到新技术会如何重塑社会以及对人类的意义时,他几乎成了哲学家之王。在2021年出版的一本名为《人工智能时代与我们人类的未来》的书中,他断言,人工智能将引发“人类身份和人类体验的改变,其程度是近代以来前所未有的”,认为人工智能的“运作预示着向事物本质的迈进,是哲学家、神学家和科学家几千年来一直在寻求的进步,并取得了部分成功”。

另一方面,施密特所在的政府人工智能小组完全承认人工智能的军事化应用所带来的风险。问题仍然是:他是否会支持采取强有力的保障措施,防止人工智能被滥用?在2017年至2020年担任国防部国防创新委员会主任期间,他确实帮助国防部制定了人工智能使用指南,承诺在研发下一代武器时保证“人在环路中”。但正如一位科技行业评论家指出的那样,一旦剥离这些说辞,这些指南不过是“废纸一张”。

事实上,美国参议员伊丽莎白·沃伦等人都质疑施密特担任国防创新部门负责人是否存在潜在的利益冲突。毕竟,在他帮助制定人工智能军事应用指南时,他还投资了人工智能开发和应用公司。他的投资实体“美国前沿基金”经常将资金投入军事科技初创企业,而他创办的非营利组织“特殊竞争力研究项目”将其使命描述为“在人工智能[重塑]国家安全、经济和社会时,加强美国的长期竞争力”。该组织与军方和科技行业的名人领袖都有联系,除此之外,他还推动减少对军事科技发展的监管。据《福布斯》报道,2023年,施密特甚至成立了一家名为“白鹳”的军用无人机公司,该公司一直在硅谷郊区的门洛帕克秘密测试其系统。

施密特对利用人工智能提高作战能力的热情表明,不可能说服他利用其巨大影响力来控制人工智能最危险的用途。他说:“每隔一段时间,就会有一种新武器、新技术出现,从而改变一切。爱因斯坦在20世纪30年代给罗斯福写过一封信,说有一种新技术——核武器——可以改变战争,事实也确实如此。我认为,人工智能自主性和去中心化的分布式系统就是如此强大。”

将军事化人工智能与核武器的发展相提并论让人忧心。迄今为止,这两者的结合—没有人工干预的自动化控制核武器——目前不会实现,但不要指望永久不实现。如果没有强有力的、可执行的保障措施来控制人工智能的使用时机和方式,两者结合的可能性依然存在。

人工智能时代即将到来,我们不能让那些肆无忌惮应用人工智能牟利的人和公司主导制定人工智能的使用规则。

来源 | 军事科学文摘总第27期

图片 | 互联网

作者 | 尹海燕

注:原文来源网络,文中观点不代表本公众号立场,相关建议仅供参考。

声明:本文来自国防科技要闻,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。