2020年4月22日,兰德公司网站发布题为《Military Applications of Artificial Intelligence:Ethical Concerns in an Uncertain World》的报告,作者是福雷斯特E.摩根和本杰明·布德罗(政策研究员、帕蒂兰德研究生院教授)等7人。报告要点如下:
研究的问题
(1)美国是否以中国和俄罗斯所没有的方式限制了其军用人工智能的发展或使用?
(2)空军需要做些什么才能最大程度地发挥人工智能加持的系统可能带来的好处,同时降低它们带来的风险?
(3)美国公众对军用人工智能及其应用引起的伦理问题持何态度?
本报告研究了人工智能的军事应用,并考虑了其伦理影响。作者调查了广泛归类为人工智能的各种技术,考虑了它们在军事应用中的潜在益处,并评估了这些技术带来的伦理、作战和战略风险。在比较了美国、中国和俄罗斯在军用人工智能开发方面的努力之后,报告作者研究了这些国家对禁止或规范自主武器开发和使用之提议的政策立场,军控倡导者认为人工智能在军事上的应用特别令人困扰。报告作者发现潜在的敌人正在将人工智能越来越多地集成到各种军事应用之中以追求战斗优势,因此建议美国空军借助人工智能赋予军事系统的力量,争取在组织、训练和装备等各个领域都占据上风。尽管禁止自主武器的努力不可能成功,但各国越来越认识到,与军用人工智能有关的风险将要求人工操作员对其使用保持积极的控制。因此,作者建议空军、联合参谋部和国防部的其他领导人与国务院合作,寻求与盟国和伙伴开展更多技术合作并保持政策一致性,同时探索与中国、俄罗斯及其它试图发展军用人工智能的国家建立信任和降低风险的措施。本报告的研究工作是于2017和2018年进行的。报告于2018年10月提交给主办方,并于2020年3月批准分发。
重要发现
(1)人工智能在军用系统中的集成可能会稳步增长
• 各种形式的人工智能用于作战都会产生严重影响。
• 人工智能将在战争中提出新的伦理问题,而有意识地关注或可降低最极端的风险。
• 尽管联合国一直在进行讨论,但短期内不太可能对军用人工智能实行国际禁令或其它法规。
(2)美国在军用人工智能方面面临激烈的国际竞争
• 中国和俄罗斯都在追求人工智能技术的军用化。
• 军用人工智能向其它国家和非国家行为者的潜在扩散是另一个令人关注的领域。
(3)军用人工智能的发展带来了一系列需要解决的风险
• 从人道主义的角度来看,伦理风险很重要。
• 作战风险源于有关人工智能系统的可靠性、脆弱性和安全性问题。
• 战略风险包括人工智能可能增加战争的可能性、使持续的冲突升级并扩散到恶意行为者。
(4)美国公众普遍支持对军用人工智能的持续投资
• 能否获得支持部分取决于对手是否使用自主武器,自卫系统是否必要以及其它相关因素。
• 尽管对伦理风险的理解会依威胁情况而有所不同,但在人类需负起责任上已达成广泛共识。
(5)人工操作员必须保持对军用人工智能的积极控制
• 指挥官应负起责任。
• 需要在每个系统的整个生命周期中进行人为干预,包括其开发和监管。
建议
• 借助当今人工智能赋予军事系统的力量,在组织、训练和装备等各个领域都应力争占据主导地位。
• 了解如何解决技术人员、私营部门和美国公众所表达的伦理关切。
• 进行公众宣传,以告知利益相关者美国军方致力于降低与人工智能相关的伦理风险,以避免引起公众的反对以及由此对相关行动产生的政策限制。
• 跟踪参与《联合国特定常规武器公约》的政府专家组的讨论,并跟踪利益相关者在国际社会中不断变化的立场。
• 在军用人工智能的发展和使用方面寻求更多地与盟国和伙伴进行技术合作并保持政策一致。
• 与中国、俄罗斯和其它试图开发军用人工智能的国家探讨建立信任和降低风险的措施。(郭道平)
声明:本文来自航空简报,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。