远望智库技术预警中心 张涛 编译
美智库新美国安全中心(CNAS)8月3日发布评论文章,分析阻碍国防部采用人工智能的制度障碍。人工智能技术的进步和发展给美国国家安全带来了巨大的机遇,同时也带来了新的挑战。作为一种赋能技术,人工智能对美国国防部可能带来重要变革,尤其是在作战、后勤和维护、指挥和控制、监视、情报收集和分析、以及医疗等领域的应用。但实现这一转变并非易事。国防创新委员会(DIB)的一份报告中分析称,“国防部在创新方面没有问题,但存在创新(应用)采用的问题”。
国防部积极发展人工智能
近年来,国防部通过制定一系列政策文件和计划来优先发展人工智能研发。早在2014年发布的第三次抵消战略中就将人工智能和自主性列为重点。在2018年制定的《国防战略》中建议投资自主性、人工智能和机器学习等技术以获得具有竞争力的军事优势。在2019年发布的《国防部人工智能战略》强调了人类在开发和使用 AI 技术中的重要作用,即“以人为本的人工智能采用”。该战略强调和明确了联合人工智能中心(JAIC)负责“国防部内部跨部门的人工智能活动”的作用。随后,国防部长马克·埃斯珀明确将人工智能列为其首要任务。2019年底,国防创新委员会提出了5项规范国防部人工智能使用的伦理原则,旨在为美国国防部未来如何在战斗和非战斗场景中设计、开发和应用人工智能提供建议。2020年2月经国防部长确认正式采纳了这5项原则,为国防部设计、开发、部署和使用人工智能奠定了道德基础,这也是美国人工智能技术制度化道路上的一个重要里程碑。
阻碍国防部人工智能部署的障碍
近年来,国防部也一直努力将这些政策转化为具体的行动。但阻碍国防部采用和部署AI 技术的障碍是非常多、而且很复杂的。首先是缺乏相关领域的技术人才,包括计算机科学和科学、技术、工程和数学(STEM)的人才。其次,采购和采购过程仍然十分艰巨和耗时。这使得小型科技公司和初创企业对其采购不是非常感兴趣。
此外,国防部还面临着三种不同但相互关联的体制障碍:组织、技术和概念。
第一个障碍是组织结构层面的。体制对颠覆性变革的抵制是必然的,这在其他部门也是存在的。作为一种颠覆性技术,AI 的采用遇到了来自多方的阻力。2019年,兰德发布报告称,人工智能的采用受到“对变革的内在抵制”,“担心个人对组织的价值”,“对技术本身普遍缺乏信任”。根植于机构和文化的官僚主义限制了国防部快速开发、获取和大规模部署人工智能的能力。究其原因在于国防部各部门缺乏对人工智能的认识,并且对过去人工智能部署的成功案例缺乏认识。
第二个障碍是技术层面的,国防部对人工智能技术和工作原理的理解有限。由于目前AI 项目普遍还不成熟,这就导致所提供的能力与所需功能不能完全匹配。首先,对人工智能能力的过高期望源于对技术发展状态的误解,当期望的解决方案被证明不切实际时,最终导致幻灭。其次,行业在一系列与人工智能相关的项目上过度夸大了承诺,导致交付功能不足,从而加剧了这种情况。
第三个障碍是概念层面的,即人们认为人工智能是什么。当AI工作得很好,人们就把它当做软件。也就是说,在一种能力被普遍采用后,人们不会认为它是人工智能。在目前的防御环境中,人工智能通常被等价为未来机器人武器。这就导致了一个常常被忽略的现实,即人工智能解决方案实际上已经在广泛使用,并且已经使用了一段时间。比如谷歌的搜索引擎和机器翻译服务,其底层的人工智能算法也已直接或间接地服务于国防部的工作。
建议
CNAS建议国防部通过高层沟通、重新调整组织和机构、进行人工智能培训等方式来帮助其实现人工智能未来愿景:
一是修改国防部的人工智能愿景以包含明确的执行策略和指标。当前国防部的远景中缺乏采取行动所需的具体细节。
二是调整工作职责和晋升标准以配合国防部各部门开发和采用人工智能解决方案。这对于吸引和留住人工智能人才是至关重要的。
三是对所有军官、士兵和文职人员进行人工智能培训。
四是采用自上而下的人工智能采用方法。与过去的重大技术变革一样,国防部高级领导层将在克服体制障碍和实现该部门人工智能愿景方面发挥重要作用。
五是向国防部各部门展示AI 计划的好处。其中应包括过去和当前国防部部署AI对军官、士兵和文职人员的影响,以及目前正在进行的人工智能项目的目标和预期成果。
结束语
尽管国防部在大规模采用和部署人工智能方面还有很长的路要走,但在过去几年,国防部在政策和部署应用上都已经取得了很大的进步。国防部领导层也非常清楚人工智能对于未来国家安全的重要性。美国防部联合人工智能中心(JAIC)主任杰克·沙纳汉说,“我们未来的国家安全、经济安全和维护这些理想取决于在国防部和其他部门接受人工智能的程度”。
声明:本文来自战略前沿技术,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。