编者按

美国政府10月24日公开发布首份关于人工智能的国家安全备忘录,旨在确保美国在抓住人工智能的前景和管理人工智能风险方面发挥领军作用,鼓励联邦政府采用人工智能来推进国家安全使命,并寻求塑造围绕人工智能使用的国际规范。除了该备忘录外,美国白宫还发布了《国家安全领域推进人工智能治理和风险管理框架》,对此前针对非国家安全任务的指南进行了补充。该框架提供了实施备忘录的进一步细节和指导,包括要求建立风险管理、评估、问责和透明度机制。

该备忘录指示采取以下三项关键行动:一是确保美国引领世界安全、保障、可信的人工智能发展。重点措施包括:提高芯片供应链的安全性和多样性,并确保开发下一代政府超级计算机和其他新兴技术时将人工智能技术纳入考虑范围;政府机构及时向人工智能开发者提供必要的网络安全和反情报信息,防止竞争对利用经济和技术间谍活动窃取美国技术;正式将美国商务部所属美国国家标准与技术研究所下辖的人工智能安全研究所指定为美国业界与美国政府的主要联络点;加大对“美国国家人工智能研究资源”试点项目的投入;美国国家经济委员会协调对美国私营部门人工智能生态系统的相对竞争优势进行经济评估。二是利用尖端人工智能技术推进美国国家安全使命。重点措施包括:要求有效地利用人工智能系统执行国家安全任务;指示制定推进国家安全领域人工智能治理和风险管理的框架;还指导各机构提出精简的采购做法和简化与非传统供应商合作的方法。三是推进围绕人工智能的国际共识和治理。重点措施包括:指示美国政府与盟友和合作伙伴合作,建立一个稳定、负责任和尊重权利的治理框架,以确保人工智能技术的开发和使用符合国际法,同时保护人权和基本自由。

该备忘录在网络安全方面值得关注的要点包括:备忘录的机密附件涉及其他敏感的国家安全问题,包括打击对美国国家安全构成威胁的对手使用人工智能;作为美国政府与私营部门人工智能开发商的主要联络点,人工智能安全研究所将负责促进对前沿人工智能模型的安全性、保障性和可信度进行自愿的公开部署前和部署后测试,其中涉及对网络安全的风险评估,如评估人工智能模型协助进攻性网络行动的能力;美国国家安全局将通过其人工智能安全中心并与人工智能安全研究所协调,开发对人工智能模型检测、生成和/或加剧攻击性网络威胁的能力进行快速系统分类测试的能力;美政府机构将优先开展人工智能安全性、保障性和可信度研究,其中涉及对利用人工智能技术生成深度造假内容的研究;在适当情况下,美国防部、国土安全部、联邦调查局和国家安全局将发布关于已知人工智能网络安全漏洞和威胁的非机密指导;美国国家安全局将针对用作国家安全系统组成部分的人工智能发布最低网络安全指南。

奇安网情局编译有关情况,供读者参考。

/

情况说明书:拜登-哈里斯政府概述了利用

人工智能力量维护美国国家安全的协调方法

今天,美国总统拜登发布了首份关于人工智能的国家安全备忘录(NSM)。该NSM的基本前提是,人工智能前沿的进步将在不久的将来对国家安全和外交政策产生重大影响。该NSM以总统和副总统为推动人工智能安全、可靠和值得信赖的发展而采取的关键步骤为基础,包括拜登总统具有里程碑意义的行政命令,以确保美国在抓住人工智能的前景和管理人工智能风险方面发挥带头作用。

该NSM指示美国政府采取具体、有影响力的措施,以

(1)确保美国在安全、可靠和值得信赖的人工智能发展方面处于世界领先地位;

(2)利用尖端人工智能技术推进美国政府的国家安全使命;

(3)推进围绕人工智能的国际共识和治理。

该NSM旨在鼓励联邦政府采用人工智能来推进国家安全使命,包括确保这种采用体现民主价值观并保护人权、公民权利、公民自由和隐私。此外,该NSM还寻求塑造围绕人工智能使用的国际规范,以反映同样的民主价值观,并指导行动以追踪和打击对手出于国家安全目的对人工智能的开发和使用。

具体来说,NSM 指示采取以下关键行动:

01

确保美国引领世界安全、保障、可信的

人工智能发展

  • 开发先进的人工智能系统需要大量先进的芯片。拜登总统签署了《芯片法案》,为我们制造尖端半导体的能力做出了重大投资,引领了这一潮流。该NSM指导采取行动,提高芯片供应链的安全性和多样性,并确保在美国支持开发下一代政府超级计算机和其他新兴技术时,我们考虑到人工智能。

  • 我们的竞争对手想要颠覆美国人工智能领域的领导地位,并利用经济和技术间谍活动窃取美国技术。该NSM将收集竞争对手针对我们人工智能领域的行动作为首要情报重点,并指示相关美国政府实体及时向人工智能开发者提供必要的网络安全和反情报信息,以确保他们的发明安全。

  • 为让美国从人工智能中获益最大,美国人必须知道何时可以信任系统安全可靠地运行。出于这个原因,该NSM正式指定人工智能安全研究所(AISI)为美国业界与美国政府的主要联络点,该研究所由了解这项快速发展技术的技术专家组成。该NSM还为人工智能安全研究所与国家安全机构(包括情报部门、国防部和能源部)的合作制定了强化和精简的机制。

  • 该NSM加倍投入美国国家人工智能研究资源(NAIRR),该试点已经在进行中,以确保大学、民间社会和小型企业的研究人员能够进行技术上有意义的人工智能研究。人工智能发展速度太快,也太复杂,我们不能只依赖一小部分大公司;我们需要向所有关心让人工智能变得安全、保障和可信的人才和机构提供支持并向他们学习。

  • 该NSM 指示美国国家经济委员会协调对美国私营部门人工智能生态系统的相对竞争优势进行经济评估。

02

使美国政府能够利用尖端人工智能,

同时保护人权和民主价值观,

以实现国家安全目标

  • 该NSM不仅要求我们有效地利用人工智能系统执行国家安全任务,还明确指出,我们必须以符合民主价值观的方式这样做。它为国家安全任务中使用的人工智能治理和风险管理提供了有史以来第一份指导方针,补充了白宫行政管理和预算局之前发布的非国家安全任务指导方针。

  • 该NSM 指示制定一个“推进国家安全领域人工智能治理和风险管理的框架”,该框架今天与此NSM同时发布。该框架提供了实施该NSM的进一步细节和指导,包括要求建立风险管理、评估、问责和透明度机制。这些要求要求各机构监测、评估和减轻与侵犯隐私、偏见和歧视、个人和团体安全以及其他侵犯人权行为相关的人工智能风险。该框架可以定期更新,以跟上技术进步的步伐,并确保未来的人工智能应用负责任且尊重权利。

  • 该NSM 指导全面变革,以确保我们在坚持价值观的同时有效使用人工智能系统。除其他行动外,它还指导各机构提出精简的采购做法和简化与非传统供应商合作的方法。

03

推进人工智能领域的国际共识和治理

  • 感谢拜登总统和哈里斯副总统的领导和外交合作,该NSM建立在过去十二个月人工智能治理方面国际重大进展的基础上。我们与G7盟友一起,于2023年制定了有史以来第一份人工智能国际行为准则。在布莱切利和首尔人工智能安全峰会上,美国与20多个国家一起概述了明确的原则。56个国家签署了我们的《关于人工智能军事用途和自主性的政治宣言》,该宣言为军事人工智能能力制定了原则。在联合国,美国发起了有史以来第一份关于人工智能的联合国大会决议,该决议获得一致通过。

  • 该NSM指示美国政府与盟友和合作伙伴合作,建立一个稳定、负责任和尊重权利的治理框架,以确保该技术的开发和使用符合国际法,同时保护人权和基本自由。

今天发布的NSM是拜登-哈里斯政府负责任创新综合战略的一部分,并以拜登总统和哈里斯副总统此前采取的行动为基础。

关于提升美国在人工智能领域的领导地位、

利用人工智能实现国家安全目标以及促进

人工智能安全性、保障性和可信度的备忘录

第一节 政策

1、本备忘录履行了2023年10月30日第14110号行政命令第4.8节(安全、保障和可信地开发和使用人工智能)中规定的指令。本备忘录进一步指导如何在美国政府中适当利用人工智能(AI)模型和AI赋能技术,特别是在国家安全系统(NSS)的背景下,同时保护人权、公民权利、公民自由、隐私和人工智能国家安全活动中的安全。本备忘录的机密附件涉及其他敏感的国家安全问题,包括打击对美国国家安全构成威胁的对手使用人工智能。

2、从历史上看,美国国家安全机构在技术转型时期取得了胜利。为了适应时代的变化,他们开发了新的能力,从潜艇和飞机到太空系统和网络工具。为了获得决定性优势并保护国家安全,他们率先开发了雷达、全球定位系统和核推进等技术,并在战场上释放了这些来之不易的突破。随着每次范式转变,他们还开发了新的系统来跟踪和打击对手利用尖端技术为自己谋利的企图。

3、人工智能已成为划时代的技术,并已显示出对国家安全日益重要的意义。美国必须引领世界负责任地将人工智能应用于适当的国家安全职能。如果使用得当并用于其预期目的,人工智能可以带来巨大的好处。如果被滥用,人工智能可能会威胁美国的国家安全,在世界范围内加强威权主义,破坏民主制度和进程,助长侵犯人权的行为,削弱基于规则的国际秩序。如果人工智能系统和流程缺乏足够的保护,即使没有恶意,也可能产生有害后果。

4、最近的创新不仅刺激了整个社会对人工智能的使用,还推动了人工智能领域的范式转变——这种转变主要发生在政府之外。人工智能的发展和部署时代建立在前所未有的专业计算能力以及深厚的科学和工程专业知识之上,其中大部分集中在私营部门。这种趋势在大语言模型的兴起中最为明显,但它延伸到更广泛的、越来越通用和计算密集的系统。美国政府必须紧急考虑当前的人工智能范式如何具体改变国家安全任务。

5、准确预测技术变革是不可能的,但支撑人工智能近期进步的基础驱动因素几乎没有减弱的迹象。这些因素包括算法的不断改进、计算硬件的效率越来越高、行业越来越愿意在研发上进行大量投资,以及训练数据集的扩大。当前范式下的人工智能可能会继续变得更加强大和通用。开发和有效使用这些系统需要不断发展的资源、基础设施、能力和工作流程,在许多情况下,这些资源、基础设施、能力和工作流程与利用先前技术(包括先前的人工智能范式)所需的资源、基础设施、能力和工作流程不同。

6、如果美国政府不以负责任的速度采取行动,并与业界、民间社会和学术界合作,利用人工智能能力服务于国家安全任务——并确保美国人工智能创新的安全性、保障性和可信度——它就有可能输给战略竞争对手。放弃美国的技术优势不仅会极大地损害美国的国家安全,而且还会破坏美国的外交政策目标,侵蚀全世界的安全、人权和民主规范。

7、确立人工智能领域的国家安全领导地位需要对美国政府的战略、能力、基础设施、治理和组织进行深思熟虑和有意义的变革。人工智能可能会影响几乎所有具有国家安全意义的领域,其使用不能局限于单一的机构孤岛。人工智能的日益普及意味着,迄今为止由单个定制工具提供的许多功能,未来可能会由至少部分依赖共享、多用途人工智能能力的系统更好地实现。这种整合只有与经过适当重新设计的美国政府组织和信息基础设施相结合才能取得成功。

8、在此努力中,美国政府还必须保护人权、公民权利、公民自由、隐私和安全,为稳定和负责任的国际人工智能治理格局奠定基础。纵观美国历史,它一直是塑造新技术设计、开发和使用的全球领导者,不仅是为了促进国家安全,也是为了保护和促进民主价值观。美国政府必须制定保障人工智能工具使用的保障措施,并积极引导全球人工智能规范和机构。人工智能前沿发展迅速,美国政府必须紧跟技术发展,同时又不能忽视其指导原则。

9、本备忘录旨在促进美国政府在处理人工智能国家安全政策方面做出必要的改变。根据第14110号行政命令,它指示采取行动加强和保护美国人工智能生态系统;提高在美国开发和使用的人工智能系统的安全性、保障性和可信度;加强美国政府在国家安全任务中适当、负责任和有效地采用人工智能;并尽量减少全球范围内对人工智能的滥用。

第二节 目标

美国政府的政策是,以下三个目标将指导其在人工智能和国家安全方面的活动。

1、首先,美国必须引领世界发展安全、保障和可信的人工智能。为此,美国政府必须与业界、民间社会和学术界合作,促进和确保美国各地推动人工智能发展的基础能力。美国政府不能将美国人工智能生态系统无与伦比的活力和创新视为理所当然;它必须积极加强它,确保美国仍然是全球人才最具吸引力的目的地,也是世界上最先进的计算设施的所在地。美国政府还必须为人工智能开发者和用户提供适当的安全指导,并严格评估和帮助减轻人工智能系统可能带来的风险。

2、其次,美国政府必须利用强大的人工智能,并采取适当的保护措施,以实现国家安全目标。新兴的人工智能能力,包括日益通用的模型,为加强国家安全提供了巨大的机会,但有效地运用这些系统将需要重大的技术、组织和政策变革。美国在利用人工智能技术优势的同时,必须了解其局限性,任何使用人工智能的行为都必须尊重透明度、人权、公民权利、公民自由、隐私和安全方面的民主价值观。

3、再次,美国政府必须继续培育一个稳定、负责任的框架,以推进国际人工智能治理,促进安全、保障和可信的人工智能开发和使用;管理人工智能风险;实现民主价值观;尊重人权、公民权利、公民自由和隐私;促进人工智能在全球范围内的利益。它必须与广泛的盟友和伙伴合作做到这一点。美国在人工智能时代的成功不仅取决于美国技术和创新的卓越性,还取决于美国在制定有效的全球规范和参与植根于国际法、人权、公民权利和民主价值观的机构方面的领导地位。

第三节 促进和保障美国的基础人工智能能力

为了保持和扩大美国在人工智能方面的优势,美国政府的政策是促进国内人工智能发展的进步、创新和竞争;保护美国人工智能生态系统免受外国情报威胁;管理人工智能安全性、保障性和可信度风险。负责任的人工智能发展领导地位有利于美国的国家安全,因为它可以实现与国家安全任务直接相关的应用,促进经济增长,避免战略意外。美国的技术领导地位还可以使志同道合的实体共同减轻人工智能滥用和事故的风险,防止数字威权主义不受控制地蔓延,并优先考虑重要研究,从而带来全球利益。

(一)促进美国人工智能发展的进步、创新和竞争

1、如果美国政府不齐心协力促进和确保国内人工智能的进步、创新和竞争,美国在人工智能发展方面的竞争优势将面临风险。尽管美国在人工智能领域处于领先地位,但竞争对手正在努力追赶,将人工智能确定为首要战略重点,并可能很快投入资源进行研发,如果没有政府适当的支持政策和行动,美国人工智能开发商将无法匹敌。因此,美国政府的政策是通过加强人工智能进步的关键驱动力(如技术人才和计算能力)来增强创新和竞争力。

2、美国政府的政策是,提高在人工智能和相关领域拥有高技能的外国人合法进入美国并在美国工作的能力,这是国家安全优先事项。今天,美国无与伦比的人工智能产业在很大程度上依赖于那些为了追求学术、社会和经济机会而移居美国的杰出科学家、工程师和企业家的洞察力。保持和扩大美国的人才优势需要在国内培养人才,并继续吸引和留住国际顶尖人才。

3、与这些目标一致:

(1)美国务院、国防部和国土安全部应持续利用所有可用的法律权力,协助吸引并迅速将具有相关技术专长的人才带到美国,以提高美国在人工智能和相关领域(如半导体设计和生产)的竞争力。这些活动应包括对这些个人进行所有适当的审查,并应与所有适当的风险缓解措施保持一致。这项任务与第14110号行政命令第5节中关于吸引人工智能人才的任务一致且具有补充性。

(2)自本备忘录签署之日起 180 天内,经济顾问委员会主席应在获得可靠数据的范围内,对美国国内和海外的人工智能人才市场进行分析。

(3)自本备忘录签署之日起180天内,美国总统经济政策助理兼国家经济委员会主任应协调对美国私营部门人工智能生态系统的相对竞争优势、美国私营部门竞争优势的主要来源以及可能面临的风险进行经济评估,并提出缓解这些风险的政策建议。评估可能涉及以下领域:一是对人工智能相关活动至关重要的芯片的设计、制造和封装;二是资本的可用性;三是人工智能相关领域高技能工人的可用性;四是计算资源和相关电力需求;五是具有前沿人工智能模型开发所需资本和数据资源规模的技术平台或机构,以及可能的其他因素。

(4)在本备忘录发布之日起 90 天内,美国总统国家安全事务助理应召集相关行政部门和机构探讨优先处理和简化所有涉及敏感技术的签证申请人行政处理流程的行动。此举将有助于简化对人工智能和其他关键新兴技术领域高技能申请人的处理。这项工作应探讨确保此类业务获得充足资源的方案,并缩小触发此类申请人安全咨询意见请求的标准,以符合国家安全目标。

4、当前人工智能发展的模式严重依赖计算资源。为了保持在人工智能领域的领先地位,美国必须继续开发世界上最先进的人工智能半导体,并建设最先进的人工智能专用计算基础设施。

5、与这些目标一致:

(1)美国防部、能源部(包括国家实验室)和情报界在规划和建造或翻新计算设施时,应考虑大规模人工智能对其任务的适用性。在适当的情况下,各机构应设计和建造能够利用前沿人工智能进行相关科学研究领域和情报分析的设施。这些投资应符合2020年12月7日第13961号行政命令(联邦任务弹性的治理和整合)中通过的联邦任务弹性战略。

(2)美国国家科学基金会(NSF)应持续根据其授权,利用美国国家人工智能研究资源(NAIRR)试点项目和任何未来的NAIRR工作,将计算资源、数据和其他对人工智能发展至关重要的资产分配给各种参与者,否则这些参与者将无法获得此类能力——例如大学、非营利组织和独立研究人员(包括值得信赖的国际合作者)——以确保美国的人工智能研究保持竞争力和创新性。这项任务与第14110号行政命令第5节中分配的NAIRR试点一致。

(3)自本备忘录签署之日起180天内,美国能源部应启动一项试点项目,评估联合人工智能和数据源在前沿人工智能规模训练、微调和推理方面的性能和效率。

(4)美国白宫办公厅主任办公室应与能源部和其他相关机构协调努力,简化人工智能基础设施建设的许可、批准和激励措施,以及支持此类基础设施弹性运行的周边资产,如清洁能源发电、输电线路和高容量光纤数据链路。这些努力应包括与州、地方、部落和领土政府进行协调、合作、协商和合伙,并应与美国管理气候风险的目标保持一致。

(5)美国务院、国防部、能源部、情报界和商务部应根据适用法律,酌情使用现有权力对国内外战略性人工智能技术及相关领域进行公共投资,并鼓励私人投资。这些机构应评估是否需要新的权力,以促进公共和私人对人工智能及相关能力的投资。

(二)保护美国人工智能免受外国情报威胁

1、除了推行支持各自人工智能产业的产业战略外,外国几乎肯定还希望获取并重新利用美国人工智能创新成果,以实现其国家安全目标。从历史上看,这些竞争对手采用了包括研究合作、投资计划、内部威胁和高级网络间谍活动在内的技术来收集和利用美国的科学见解。美国政府的政策是保护美国行业、民间社会和学术界的人工智能知识产权和相关基础设施免受外国情报威胁,以保持基础能力的领先地位,并在必要时向相关非政府实体提供适当的政府援助。

2、与这些目标一致:

(1)自本备忘录发布之日起 90 天内,美国国家安全委员会(NSC)工作人员和国家情报总监办公室(ODNI)应审查与2022年7月12日第12号国家安全备忘录(总统情报优先事项)一致的总统情报优先事项和国家情报优先事项框架,并提出建议,确保这些优先事项能够改善对美国人工智能生态系统和密切相关的支持部门(例如涉及半导体设计和生产的部门)所面临的外国情报威胁的识别和评估。

(2)在本备忘录签署之日起180天内,以及此后的持续基础上,美国国家情报总监办公室应与国防部、司法部、商务部、能源部、国土安全部和其他情报界部门协调,确定人工智能供应链中的关键节点,并列出这些节点可能被外国行为者破坏或破坏的最可能途径。这些机构应持续采取一切适当且符合适用法律的措施,以降低此类风险。

3、外国行为者还可能试图通过灰色地带方法获取美国知识产权,例如技术转让和数据本地化要求。与人工智能相关的知识产权通常包括关键技术组件(CTA),这些组件将大大降低重新创造、获得或使用强大人工智能能力的成本。美国政府必须防范这些风险。

4、与这些目标一致:

(1)为执行2022年9月15日第14083号行政命令(确保美国外国投资委员会认真考虑不断变化的国家安全风险),美国外国投资委员会应酌情考虑涵盖的交易是否涉及外国行为者获取有关人工智能训练技术、算法改进、硬件进步、关键技术组件(CTA)或其他专有见解的专有信息,这些信息有助于如何创建和有效使用强大的人工智能系统。

(三)管理人工智能安全性、保障性和可信度风险

1、当前和不久的将来,人工智能系统可能带来重大的安全性、保障性和可信度风险,包括因故意滥用和事故而导致的风险。在许多技术领域,美国历来不仅在提高能力方面处于世界领先地位,而且在开发可靠和有益的全球采用所依赖的测试、标准和规范方面也处于世界领先地位。美国对人工智能的态度也应如此,积极构建测试基础设施以评估和减轻人工智能风险对于实现人工智能的积极潜力和保持美国在人工智能领域的领导地位至关重要。

2、美国政府的政策是寻求新的技术和政策工具来应对人工智能带来的潜在挑战。这些工具包括可靠地测试人工智能模型对有害任务的适用性的流程,以及与能够推进与人工智能安全、保障和可信度相关研究的行业、学术界和民间社会机构建立更深入的伙伴关系。

3、美国商务部将通过美国国家标准与技术研究所(NIST)下属的人工智能安全研究所(AISI)作为美国政府与私营部门人工智能开发商的主要联络点,以促进对前沿人工智能模型的安全性、保障性和可信度进行自愿的公开部署前和部署后测试。美商务部应与相关机构协调,建立持久的能力,代表美国政府领导对前沿人工智能模型进行自愿的非机密部署前安全测试,包括对网络安全、生物安全、化学武器、系统自主性和其他适当风险(不包括核风险,核风险评估应由能源部牵头)的风险评估。自愿的非机密安全测试还应酌情解决对人权、公民权利和公民自由的风险,例如与隐私、歧视和偏见、言论自由以及个人和团体安全有关的风险。本节第(三)条第6款所述的其他机构应建立持久能力,在适当的专业领域进行补充性自愿机密测试。本款规定的指令与第14110号行政命令第4节中关于人工智能安全的更广泛任务相一致,并进一步明确了各机构各自的角色和职责。

4、本小节的任何内容均不得妨碍各机构对人工智能系统进行自己的评估,包括在向公众发布这些系统之前进行的测试,以评估该机构的收购和采购的适用性。人工智能安全研究所(AISI)的职责不包括评估美国政府可能用于国家安全目的的人工智能系统;这些职责在于考虑此类用途的机构,如本备忘录第4节第(二)条第5款和第4节第(二)条中描述的相关框架所述。

5、为实现这些目标,美商务部应通过NIST内的人工智能安全研究所(AISI)采取以下行动,协助评估当前和近期的AI系统:

(1)在本备忘录签署之日起180天内,在私营部门合作的前提下,AISI应在公开部署或发布之前对至少两种前沿人工智能模型进行自愿初步测试,以评估可能对国家安全构成威胁的能力。该测试应评估人工智能模型协助进攻性网络行动、加速生物和/或化学武器开发、自主实施恶意行为、自动开发和部署具有此类能力的其他模型以及引发AISI发现的其他风险的能力。AISI应与总统国家安全事务助理、适当的跨机构对应部门以及各自的模型开发人员分享此类测试期间发现的风险结果以及部署前的任何适当缓解措施的反馈。

(2)在本备忘录发布之日起180天内,AISI 应以根据第14110号行政命令第4.1(a)款发布的指南为基础,为人工智能开发者发布指导意见,指导他们如何测试、评估和管理由双重用途基础模型引起的安全性、保障性和可信度风险。AISI应发布以下主题的指导意见:

一是如何衡量与人工智能模型可能实现生物和化学武器的发展或攻击性网络行动的自动化相关的风险相关的能力;

二是如何应对社会风险,例如滥用模特来骚扰或冒充个人;

三是如何制定缓解措施以防止恶意或不当使用模型;

四是如何测试安全和安保缓解措施的有效性;

五是如何在整个开发和部署生命周期(开发前、开发和部署/发布)中应用风险管理实践。

(3)自本备忘录签署之日起 180 天内,AISI 应与其他适当机构协商,制定或推荐基准或其他方法,以评估人工智能系统在科学、数学、代码生成和一般推理方面的能力和局限性,以及AISI认为与评估可能对国家安全和公共安全产生影响的通用能力相关的其他类别的活动。

(4)如果AISI或其他机构确定双重用途基础模型的能力可能被用来严重危害公共安全,AISI 应作为美国政府向模型开发者传达此类调查结果及任何相关风险缓解建议的主要联络点。

(5)自本备忘录发布之日起 270 天内,以及此后至少每年一次,AISI 应通过总统国家安全事务助理向总统提交至少一份报告,并酌情向其他跨部门对应部门提供至少一份报告,报告应包括以下内容:

一是AISI开展或与AISI共享的前沿人工智能模型人工智能安全评估结果摘要;

二是AISI是否认为风险缓解措施对于解决评估中发现的任何问题是必要的摘要,以及关于任何缓解措施有效性的结论;

三是用于此类评估的科学工具和方法的充分性的摘要。

6、与这些目标一致,下文指定的其他机构应与商务部协调,通过NIST内的 AISI 采取以下行动,对当前和近期人工智能系统的网络、核和放射风险提供机密的行业特定评估:

(1)所有进行或资助人工智能系统安全测试和评估的机构应在评估完成后30天内与AISI分享评估结果,并与对机密和受控信息的适用保护保持一致。

(2)自本备忘录签署之日起 120 天内,美国国家安全局将通过其人工智能安全中心并与AISI协调,开发对人工智能模型检测、生成和/或加剧攻击性网络威胁的能力进行快速系统分类测试的能力。此类测试应评估人工智能系统在被滥用的情况下加速攻击性网络行动的程度。

(3)在本备忘录签署之日起 120 天内,美国能源部将主要通过国家核安全局(NNSA)并与AISI和国家安全局密切协调,寻求开发对AI模型产生或加剧核和放射性风险的能力进行快速系统测试的能力。该计划应涉及开发和维护能够运行机密和非机密测试的基础设施,包括使用受限数据和相关机密威胁信息。该计划还应包括创建和定期更新自动评估、开发用于实现人为主导的红队测试的界面,以及建立必要的技术和法律工具,以促进美国政府、开放重量级和专有模型快速安全地转移到这些设施。作为该计划的一部分:

一是在本备忘录发布之日起 180 天内,美国能源部应利用本节第(三)条第6款第(3)点内容中描述的能力,在前沿人工智能模型以适当的分类级别提供给国家核安全局(NNSA)后30天内完成对该模型的放射和核知识、能力和影响的初步评估。这些评估应涉及对人工智能系统的测试,既不进行重大修改,也应在适当情况下进行微调或其他可以提高性能的修改。

二是自本备忘录发布之日起270天内,以及此后至少每年一次,美能源部应通过总统国家安全事务助理向总统提交至少一次评估,其中应包括以下内容:

本节第(三)条第6款第3点第一条内容中描述的每项放射性和核风险 AI 模型评估结果的简要摘要,这些评估是能源部在过去12个月内进行的;关于是否需要采取纠正措施来解决评估中发现的任何问题的建议,包括但不限于根据《1954年原子能法》采取必要行动,以达到并维持适当的合规条件,以保护和防止未经授权披露限制数据或其他机密信息;关于用于评估的科学工具和方法的充分性的简要说明。

(4)美国土安全部应通过网络安全和基础设施安全局(CISA)持续履行其在应用AISI指导方面的职责,如2024 年4月30日第22号国家安全备忘录(关键基础设施安全和弹性)和第14110号行政命令第4节所述。

7、与这些目标相一致,为了减少人工智能可能产生的化学和生物风险:

(1)美国政府应推进对先进人工智能模型产生或加剧蓄意化学和生物威胁的能力的机密评估。作为这项举措的一部分:

一是在本备忘录签署之日起 210 天内,美国能源部、国土安全部和AISI应与国防部和其他相关机构协商,协调制定未来对先进AI模型产生或加剧蓄意化学和生物威胁的能力进行机密评估的路线图,并与总统国家安全事务助理分享。该路线图应考虑机密评估的范围、规模和优先级;适当的保障措施,以确保评估和模拟不会被误解为进攻能力的发展;测试敏感和/或机密信息的适当保障措施;以及评估方法的可持续实施。

二是美国土安全部应持续提供专业知识、威胁和风险信息以及其他技术支持,以评估拟议的生物和化学机密评估的可行性;解释和阐述评估结果;并就潜在的风险缓解措施向相关机构提供建议。

三是自本备忘录签署之日起270天内,美能源部应建立一个试点项目,提供在该领域开展机密测试的专业知识、基础设施和设施。

(2)自本备忘录签署之日起240天内,美国防部、卫生与公众服务部、能源部(包括国家实验室)、国土安全部、国家科学基金会和其他致力于开发以生物和化学数据为基础进行大量训练的人工智能系统的机构应酌情支持利用高性能计算资源和人工智能系统加强生物安全和生物安保的努力。这些努力应包括:

一是开发用于计算机化学和生物研究和技术筛选的工具;二是核酸合成筛选算法的创建;三是为新型生物技术构建高可靠软件基础;四是筛选来自云实验室和生物铸造厂的完整订单或数据流;五是制定医疗对策等风险缓解策略。

(3)在本节第(三)条第5款概述的AISI发布生物和化学安全指南后,所有直接开发向公众开放且经过大量生物或化学数据训练的相关两用基础 AI 模型的机构应在适当和可行的情况下将该指南纳入其机构的实践中。

(4)自本备忘录发布之日起 180 天内,美国国家科学基金会将与国防部、商务部(通过NIST内的AISI行事)、卫生与公众服务部、能源部、科学技术政策办公和其他相关机构协调,寻求召集学术研究机构和科学出版商,制定自愿的最佳实践和标准,用于发布计算生物和化学模型、数据集和方法,包括那些使用人工智能并可能有助于产生可能被滥用造成危害的知识、信息、技术和产品的模型、数据集和方法。这是为了进一步开展第14110号行政命令第4.4和4.7小节中描述的活动。

(5)自本备忘录签署之日起 540 天内,并根据美国政府对令人担忧的双重用途研究和具有高度大流行潜力的病原体的监督政策,美国科学技术政策办公室、国家安全委员会工作人员和大流行防范和应对政策办公室应与相关机构和外部利益相关者协商,制定指导方针,以促进计算机辅助生物和化学研究的益处并减轻其相关风险。

8、各机构应采取以下行动,提高对人工智能安全性、保障性和可信度的基础理解:

(1)美国防部、商务部、能源部、国土安全部、国家情报总监办公室、国家科学基金会、国家安全局和国家地理空间情报局应在适当且符合适用法律的情况下,优先开展人工智能安全性、保障性和可信度研究。在适当且符合现有权力的情况下,他们应与在这些领域拥有专业知识的领先公共部门、行业、民间社会、学术界和其他机构建立适当的伙伴关系,以加速人工智能安全性和可信度方面的技术和社会技术进步。这项工作可能包括可解释性、形式化方法、隐私增强技术、应对公民自由和人权风险的技术、人机交互和/或检测和标记合成和真实内容的社会技术影响(例如,解决恶意使用人工智能生成政治或公众人物的误导性视频或图像,包括具有战略破坏性或非自愿亲密性质的视频或图像)的研究。

(2)美国防部、商务部、能源部、国土安全部、国家情报总监办公室、国家科学基金会、国家安全局和国家地理空间情报局应在适当情况下并依照适用法律,优先开展研究,以提高人工智能系统和控制的保障性、稳健性和可靠性。这些实体应在适当情况下并依照适用法律,与其他机构、业界、民间社会和学术界合作。在适当情况下,美国防部、国土安全部(通过CISA行事)、联邦调查局和国家安全局(通过人工智能安全中心行事)应发布关于以下方面的非机密指导:已知人工智能网络安全漏洞和威胁;在模型训练和部署期间避免、检测和缓解此类问题的最佳实践;其他软件系统的人工智能集成。这项工作应包括审查关键基础设施中使用的人工智能系统的作用和可能造成的漏洞。

9、鉴于人工智能带来的潜在风险,各机构应采取措施保护机密和受控信息:

(1)在定期更新政策和程序的过程中,美国防部、能源部和情报部门应考虑人工智能工具支持的分析如何影响与材料解密、充分匿名化标准和类似活动有关的决策,以及现有操作安全和公平控制的稳健性,以保护机密或受控信息,因为人工智能系统已证明有能力从编辑和匿名数据中提取以前无法获得的见解。

第四节 负责任地利用人工智能实现国家安全目标

美国政府的政策是采取果断行动,确保有效和负责任地使用人工智能,以进一步实现其国家安全使命。要在人工智能的国家安全应用方面取得全球领导地位,需要与政府以外的组织建立有效的伙伴关系,并进行重大的内部转型,包括加强有效的监督和治理职能。

(一)促进有效和负责任地使用人工智能

1、美国政府的政策是调整其伙伴关系、政策和基础设施,以适当、有效和负责任地使用人工智能能力。这些修改必须平衡每个机构独特的监督、数据和应用需求与在美国政府内共享强大的人工智能和计算资源所带来的巨大好处。修改还必须以对美国政府相对于行业、民间社会和学术界的比较优势的清晰理解为基础,并且必须在适当的情况下利用外部合作者和承包商的提议。美国政府必须充分利用丰富的美国人工智能生态系统,通过激励安全、保障和可信的人工智能创新,并在选择承包商、资助接受者和研究合作者时促进行业竞争。最后,美国政府必须解决重要的技术和政策问题,以确保实现其目标所需的完整性和互操作性,同时保护人权、公民权利、公民自由、隐私和安全。

2、美国政府需要更新一套全政府范围的程序,以出于国家安全目的吸引、雇用、培养和留住人工智能和人工智能人才。

3、与这些目标一致:

(1)在定期进行法律、政策和合规框架审查的过程中,美国务院、国防部、司法部、能源部、国土安全部和情报部门各部门应酌情修改其招聘和留任政策和战略,以加速负责任的人工智能采用。各机构应考虑采用人工智能所需的技术人才需求,并将其融入其任务和有效使用人工智能所需的其他角色中,例如与人工智能相关的治理、道德和政策立场。这些政策和战略应确定财务、组织和安全障碍,以及符合适用法律的潜在缓解措施。这些措施还应包括考虑从行业、学术界和民间社会吸引具有相关技术专长的专家的计划——包括服务奖学金计划——以及类似的举措,这些举措将使政府雇员接触相关的非政府实体,从而建立对人工智能行业的技术、组织和文化熟悉度。这些政策和战略应使用所有可用的权力,包括酌情加快安全审查程序,以解决政府内部人工智能相关人才的短缺问题。

(2)自本备忘录发布之日起 120 天内,美国务院、国防部、司法部、能源部、国土安全部和情报部门各部门应分别与白宫行政管理和预算局协商,确定教育和培训机会,通过培训和基于技能的招聘等举措提高各自劳动力的人工智能能力。

4、为了加速人工智能在国家安全任务中的应用,美国政府需要协调有效的采购系统。这将需要增强评估、定义和阐明人工智能相关国家安全需求的能力,以及提高缺乏与美国政府合作经验的人工智能公司的可及性。

5、与这些目标一致:

(1)自本备忘录发布之日起30天内,美国防部和国家情报总监办公室应与白宫行政管理和预算局和其他相关机构协调,成立一个工作组,以解决国防部和情报部门采购人工智能用于国家安全战略的问题。在适当情况下,工作组应咨询国家安全局局长(作为国家安全系统的国家管理人),制定采购人工智能用于国家安全战略的建议。

(2)自本备忘录发布之日起 210 天内,本节第(一)条第5款第(1)点所述的工作组应向联邦采购监管委员会(FARC)提供书面建议,对现有法规和指导进行修改,并视情况而定并符合适用法律,以促进美国防部和情报界采购的人工智能以及在国家安全战略上使用人工智能的以下目标:

一是确保客观的标准来衡量和促进人工智能系统的安全性、保障性和可信度;二是加快人工智能的收购和采购流程,与《联邦采购条例》保持一致,同时保持适当的检查以降低安全风险;三是简化流程,使得没有经验丰富的承包团队的公司也可以有效竞争相关合同,以确保美国政府能够使用广泛的人工智能系统,并确保人工智能市场具有竞争力;四是构建竞争结构以鼓励积极参与并为政府实现最大价值,例如通过纳入促进互操作性的要求并在评估报价时优先考虑供应商的技术能力;五是在最大程度上并适当地促进相关机构间人工智能的共享使用;六是确保具有特定权力和使命的机构可以在适当和必要时实施其他政策。

(3)联邦采购监管委员会(FARC)应根据适用法律,酌情考虑对《联邦采购条例》提出修正案,以将工作组根据本节第(一)条第6款第(2)点提出的可能在政府范围内适用的建议编入法典。

(4)美国防部和国家情报总监办公室应寻求与美国私营部门的各种利益相关者(包括人工智能技术和国防公司以及美国投资者社区成员)进行持续接触,以确定并更好地了解可能有利于或影响美国国家安全任务的新兴能力。

6、美国政府需要明确、现代化和强有力的政策和程序,以促进人工智能的快速发展和国家安全使用,同时符合人权、公民权利、公民自由、隐私、安全和其他民主价值观。

7、与这些目标一致:

(1)美国防部和情报局应酌情与司法部协商,审查各自的法律、政策、公民自由、隐私和合规框架,包括国际法律义务,并在适当情况下并根据适用法律,寻求制定或修改政策和程序,以确保有效和负责任地使用人工智能,同时考虑以下几点:

一是根据第14110号行政命令第9节的规定,获取、使用、保留、传播和处置在包含可追溯到特定美国人的个人信息、公开信息、商业可用信息和知识产权的数据集上训练的模型所引发的问题;二是美司法部应与国防部和国家情报总监办公室协商,就情报部门获取和使用人工智能所引发的宪法考虑制定指导方针;三是与密级和划分相关的挑战;四是算法偏见、性能不一致、输出不准确以及其他已知的人工智能故障模式;五是使用人工智能工具时对分析完整性的威胁;六是缺乏保护人权、公民权利、公民自由、隐私和其他民主价值观的保障措施所带来的风险,本节第(二)条将进一步详细阐述;七是与盟友和合作伙伴分享人工智能模型和相关见解的障碍;八是人工智能的使用与履行国际法律义务和承诺之间可能存在不一致。

(2)在适当情况下,本节第(一)条第7款中描述的政策应与美国国家安全委员会和国防部发布的关于国家安全系统上使用的人工智能安全的指示、国家情报总监发布的关于情报部门采用人工智能的政策以及白宫行政管理和预算局发布的关于非国家安全系统上使用的人工智能安全的指示一致。

(3)在持续的基础上,每个在美国国家安全系统上使用人工智能的机构应与美国国家情报总监办公室和国防部协商,采取一切适当且符合适用法律的措施,加快对用于国家安全系统的人工智能系统进行负责任的批准,并对使用人工智能系统的国家安全系统进行认证。

8、美国的盟友和合作伙伴网络赋予了其相对于竞争对手的显著优势。根据2022年国家安全战略或任何后续战略,美国政府必须投资并积极推动与特定盟友和合作伙伴共同开发和部署人工智能能力。

9、与这些目标一致:

(1)自本备忘录签署之日起150天内,美国防部应与国务院和国家情报总监办公室协调,评估与特定盟友和合作伙伴推进、增加和促进人工智能及人工智能资产的共同开发和共享使用的可行性。评估应包括:

一是可能与之进行此类共同开发或部署的外国名单;二是可能进行外联的双边和多边论坛清单;三是潜在的共同开发和共同部署概念;四是为共同开发的人工智能能力提出适合分类的测试工具;五是考虑将现有计划、协议或安排作为未来共同开发和共同部署人工智能能力的基础。

10、美国政府需要加强对国家安全战略中人工智能的使用和处理方式的内部协调,以确保符合适用法律的互操作性和资源共享,并利用前沿人工智能模型提供的通用性和规模经济。

11、与这些目标一致:

(1)美国防部和国家情报总监办公室应持续发布或修订相关指导意见,以改进国家安全系统人工智能功能的整合和互操作性。该指导意见应确保美国政府能够根据适用法律,在适当的情况下有效地协调和共享与人工智能相关的资源。此类工作应包括:

一是建议机构组织实践改进跨多个国家安全机构的人工智能研究和部署活动。为了鼓励出于国家安全目的采用人工智能,这些措施应旨在尽可能在修订后的实践中保持一致性。二是采取措施,促进通用人工智能系统和支持基础设施的综合研究、开发和采购,使得多个机构可以在符合适用法律的范围内共享对这些工具的访问权限,同时仍允许对敏感数据进行适当的控制。三是在切实可行和适当的情况下,与各机构协调与人工智能相关的国家安全政策和程序,并遵守适用法律。四是当承包商开发、部署或使用的人工智能系统表现出与安全性、保障性和可信度相关的风险(包括人权、公民权利、公民自由或隐私)时,根据适用法律制定适当的政策和程序,以便在美国防部和情报界间共享信息。

(二)加强人工智能治理和风险管理

1、随着美国政府迅速采取行动,采用人工智能来支持其国家安全使命,它必须继续采取积极措施,维护人权、公民权利、公民自由、隐私和安全;确保人工智能的使用方式符合总统作为总司令的权力,即决定何时下令为国家防御采取军事行动;并确保人工智能能力的军事使用是负责任的,包括在军事行动期间在负责任的人为指挥和控制系统内使用人工智能。因此,美国政府必须制定和实施强有力的人工智能治理和风险管理实践,以确保其人工智能创新符合民主价值观,并在必要时更新政策指导。鉴于承担国家安全使命的各机构的权力和使命各不相同,以及技术变革的速度迅速,此类人工智能治理和风险管理框架应:

(1)在法律允许的范围内进行结构化,以适应新技术发展带来的未来机遇和风险;

(2)各机构之间尽可能保持一致,以实现互操作性,同时尊重各自的独特权力和使命;

(3)旨在促进创新,推进美国国家安全目标;

(4)在保护机密或受控信息的同时,尽可能适当地向公众透明;

(5)以适当的方式和手段开发和应用,以整合对人权、公民权利、公民自由、隐私和安全的保护、控制和保障;

(6)旨在体现美国在建立广泛的国际支持规则和规范方面的领导地位,这些规则和规范强化了美国的人工智能治理和风险管理方法。

2、相关机构应负责任地开发和使用人工智能,遵守美国法律和政策、民主价值观以及国际法和条约义务,包括国际人道主义法和人权法。所有机构官员均保留其在其他法律和政策中确立的现有权力和职责。

3、与这些目标一致:

(1)各相关机构的负责人应根据其职权,监测、评估和减轻与其机构开发和使用人工智能直接相关的风险。此类风险可能源于在国防、情报或执法环境中使用人工智能输出来通知、影响、决定或执行机构决策或行动,并可能影响人权、公民权利、公民自由、隐私、安全、国家安全和民主价值观。使用人工智能带来的这些风险包括:

一是人身安全风险:人工智能的使用可能会对人类生命或财产造成意想不到的风险。

二是隐私危害:人工智能的设计、开发和运行可能对个人造成伤害、尴尬、不公平和偏见。

三是歧视和偏见:人工智能的使用可能导致非法歧视和有害偏见,从而造成不适当的监视和分析等危害。

四是使用不当:使用人工智能系统的操作员可能不完全了解这些技术(包括在冲突中使用的系统)的能力和局限性。这种不熟悉可能会影响操作员行使适当水平的人类判断的能力。

五是缺乏透明度:各机构在人工智能开发和使用方面的记录可能存在差距,而且由于需要保护机密或受控信息,公众可能无法获得有关人工智能在国家安全背景下如何使用的信息。

六是缺乏问责制:对机构人员正确使用人工智能系统的培训计划和指导可能不够充分,包括无法减轻过度依赖人工智能系统的风险(如“自动化偏见”),问责机制可能无法充分解决对人工智能技术的可能故意或疏忽滥用。

七是数据泄露:人工智能系统可能会无意中或被恶意行为者故意操纵而泄露其训练数据的某些部分,而使用机密或受控信息进行训练的人工智能系统在不允许获取此类信息的网络上使用时,可能会导致数据泄露。

八是性能不佳:训练不当或训练不充分、用于超出其训练范围的目的或不当融入人类工作流程的人工智能系统可能会表现出不佳的性能,包括导致不一致的结果或非法歧视和有害偏见,或破坏决策过程的完整性。

九是故意操纵和滥用:外国竞争对手和恶意行为者可能会故意破坏人工智能系统的准确性和有效性,或试图从此类系统中提取敏感信息。

4、美国政府的人工智能治理和风险管理政策必须跟上不断发展的技术。

5、与这些目标一致:

(1)一项名为《推进美国国家安全领域人工智能治理和风险管理的框架》(人工智能框架)的人工智能框架应进一步实施本小节。人工智能框架应通过2021年2月4日第2号美国国家安全备忘录(更新国家安全委员会系统)或任何后续程序中所述的程序由国家安全委员会副委员会批准,并应通过该程序定期审查。此过程应确定是否需要进行调整以解决本节第(二)条第3款中确定的风险和人工智能框架中涵盖的其他主题。人工智能框架应作为白宫行政管理与预算局(OMB)2024年3月28日备忘录M-24-10(推进机构使用人工智能的治理、创新和风险管理)以及任何后续OMB政策的国家安全重点对应。在可行、适当且符合适用法律的范围内,人工智能框架应尽可能与这些OMB政策保持一致,并应公开。

(2)本节第(二)条第5款第(1)点所述的人工智能框架及其后续文件应至少在与适用法律一致的范围内明确以下内容:

一是每个管辖机构应设立一名首席人工智能官,该官在该机构内承担主要责任,与其他负责官员协调,管理该机构对人工智能的使用,促进该机构内部的人工智能创新,并尽可能按照OMB备忘录 M-24-10 第 3(b)款规定管理该机构使用人工智能带来的风险。

二是相关机构应设立人工智能治理委员会,通过机构相关高层领导来协调和管理人工智能问题。

三是对具有不可接受的风险水平并应被禁止的人工智能活动的指导。

四是对“影响巨大”且需要最低风险管理实践的人工智能活动提供指导,包括对影响美国政府人员的高影响人工智能的使用。此类高影响活动应包括其输出作为决策或行动主要依据的人工智能,这些决策或行动可能会加剧或对国家安全、国际规范、人权、公民权利、公民自由、隐私、安全或其他民主价值观造成重大风险。高影响人工智能的最低风险管理实践应包括:机构评估人工智能预期收益和潜在风险的机制;评估数据质量的机制;充分的测试和评估实践;减轻非法歧视和有害偏见;人力培训、评估和监督要求;持续监测;以及对军人、联邦文职人员和从受监管机构获得工作机会的个人的额外保障。

五是相关机构应确保隐私、公民自由和安全官员被纳入人工智能治理和监督结构。这些官员应在可行的情况下利用现有的报告渠道,向机构负责人和监督官员报告调查结果。

六是相关机构应确保有足够的培训计划、指导和问责流程,以确保人工智能系统的正确使用。

七是相关机构应每年对其高影响的人工智能使用和人工智能系统进行盘点,并向机构负责人和总统国家安全事务助理提供该库存的更新信息。

八是相关机构应确保举报人保护措施足以解决人工智能和人工智能系统开发和使用过程中可能出现的问题。

九是相关机构应制定并实施高影响人工智能使用的豁免流程,以平衡本备忘录和人工智能框架中风险缓解措施的强有力实施与利用人工智能来维护和推进关键机构任务和运营的需要。

十是相关机构应执行美国国家安全系统管理人发布的与人工智能系统相关的网络安全指导或指示,以减轻恶意行为者利用新技术带来的风险,并实现跨机构人工智能的互操作性。在本备忘录发布之日起150天内,以及此后定期,美国国家安全系统管理人应针对用作国家安全系统组成部分的人工智能发布最低网络安全指南和/或指示,该指南应纳入本节第(二)条第7款第(1)点中详述的人工智能治理指南中。

6、美国政府需要有关在国家安全战略中使用人工智能的具体指导。

7、与这些目标一致:

(1)自本备忘录发布之日起 180 天内,美国务院、财政部、国防部、司法部、商务部、能源部、国土安全部、国家情报总监办公室(代表18个情报部门)以及任何其他将人工智能作为国家安全战略一部分的涵盖机构(部门负责人)的负责人应向其组成部分/下属机构发布或更新关于国家安全战略人工智能治理和风险管理的指导意见,并与本小节中的政策、人工智能框架和其他适用政策保持一致。部门负责人应每年审查各自的指导意见,并根据需要更新此类指导意见。本指导意见及其任何更新应在发布前提供给总统国家安全事务助理。本指导意见应为非机密性质,并在可行和适当的范围内向公众提供,但其附件可能为机密。各部门负责人应努力协调指导意见,总统国家安全事务助理应至少每年召开一次跨部门会议,在尊重各机构不同权限和使命的同时,尽可能协调各部门负责人对人工智能治理和风险管理的指导意见。应在以下领域进行协调:

一是实施高影响人工智能的风险管理实践;二是人工智能和人工智能系统标准和活动,包括与培训、测试、认证、安全和网络安全相关的标准和活动;三是任何其他影响人工智能和人工智能系统互操作性的问题。

第五节 培育稳定、负责和全球受益的国际人工智能治理格局

1、纵观美国历史,它在塑造国际秩序方面发挥了重要作用,使新技术在全球范围内得到安全、保障和可信的采用,同时保护民主价值观。这些贡献包括建立生物、化学和核武器的不扩散制度,为互联网的多利益相关方治理奠定基础。与这些先例一样,人工智能将需要新的全球规范和协调机制,美国政府必须在制定这些机制方面发挥积极作用。

2、美国政府的政策是,美国在人工智能方面的国际参与应支持和促进全球人工智能系统的安全性、保障性和可信度的提高;促进民主价值观,包括尊重人权、公民权利、公民自由、隐私和安全;防止在国家安全背景下滥用人工智能;促进公平获得人工智能的好处。美国政府应根据本政策推进国际协议、合作以及其他实质性和规范性举措。

3、与这些目标一致:

(1)自本备忘录签署之日起 120 天内,美国国务院应与美国防部、商务部、国土安全部、美国驻联合国代表团和美国国际开发署协调,制定一项战略,以推进符合安全、保障和可信的人工智能以及民主价值观(包括人权、公民权利、公民自由和隐私)的国际人工智能治理规范。该战略应涵盖双边和多边接触以及与盟友和伙伴的关系。它还应包括与竞争对手接触的指导,并应概述在联合国和七国集团(G7)等国际机构以及技术组织中开展工作的方法。该战略应:

一是制定和推广符合美国政策和现有努力的国际共享定义、规范、期望和标准,以促进全球范围内安全、保障和可信的人工智能开发和使用。这些规范应尽可能与美国国内人工智能治理(包括第14110号行政命令和白宫行政管理与预算局备忘录M-24-10)、七国集团于2023年10月发布的《开发先进人工智能系统的组织国际行为准则》、经济合作与发展组织关于人工智能的原则、联合国大会第A/78/L.49号决议以及美国支持的其他相关国际框架(如《关于负责任的军事使用人工智能和自主性的政治宣言》)和文书保持一致。通过阻止滥用和鼓励适当的保障措施,这些规范和标准应旨在降低人工智能造成伤害或对人权、民主或法治产生不利影响的可能性。

二是根据民主价值观并遵守适用的国际法,促进在国家安全背景下负责任和合乎道德地使用人工智能。该战略应推进本备忘录确立的规范和实践以及《关于负责任地军事使用人工智能和自主性的政治宣言》中认可的措施。

第六节 确保有效协调、执行和报告人工智能政策

1、美国政府必须以密切协调的方式开展工作,以有效和负责任地采用人工智能。鉴于人工智能技术发展的速度,美国政府必须快速学习,适应新兴战略发展,采用新的能力,并应对新的风险。

2、与这些目标一致:

(1)自本备忘录发布之日起 270 天内,以及此后至少 5 年内每年,美国务院、国防部、商务部、能源部、国家情报总监办公室(代表情报界)、美国驻联合国代表团和美国国际开发署的负责人应通过总统国家安全事务助理向总统提交一份报告,详细说明其根据本备忘录所有部分(包括本备忘录的机密附件)的任务开展的活动,并提供进一步行动的计划。美国中央情报局、国家安全局、国防情报局和国家地理空间情报局应向国家情报总监办公室提交其活动报告,以全文作为国家情报总监办公室关于情报界活动报告的附录。美国国家地理空间情报局、国家安全局和国防情报局也应向国防部提交其报告,以全文作为国防部报告的附录。

(2)自本备忘录签署之日起 45 天内,美国国务院、国防部、司法部、能源部、国土安全部、白宫行政管理和预算局、国家情报总监办公室、中央情报局、国防情报局、国家安全局和国家地理空间情报局的首席人工智能官以及适当的技术人员应组建一个人工智能国家安全协调小组(简称“协调小组”)。任何属于美国国家安全系统委员会成员机构的首席人工智能官也可以作为正式成员加入该协调小组。该协调小组应由国家情报总监办公室和国防部的首席人工智能官共同担任主席。该协调小组应考虑如何协调与国家安全系统人工智能的开发、认证、采购、使用和评估有关的政策。这项工作可能包括开发制定:

一是加强培训和意识,确保各机构优先考虑最有效的人工智能系统,负责任地开发和使用人工智能,并有效地评估人工智能系统;

二是识别和减轻与人工智能采购相关的外国情报风险和人权考虑的最佳实践;

三是确保人工智能机构部署之间的互操作性的最佳实践,包括数据互操作性和数据共享协议,以适当方式并符合适用法律;

四是持续维护、更新和传播此类培训和最佳实践的流程;

五是与人工智能相关的政策举措,以解决行政部门范围内的政策制定过程中所涉及的监管漏洞;

六是根据适用法律,采用敏捷流程来提高人工智能能力的获取、验证和交付速度。

(3)在本备忘录发布之日起 90 天内,本节第2条第(2)款所述的协调小组应成立一个国家安全人工智能执行人才委员会(人才委员会),由协调小组中所有希望参与的机构的高级人工智能官员(或指定人员)组成。人才委员会应致力于标准化、优先化和解决人工智能人才需求,并制定一套更新的政府范围的程序,用于吸引、聘用、培养和留住人工智能和人工智能支持人才,以用于国家安全目的。人才委员会应指定一名代表担任第14110号行政命令规定的人工智能和技术人才工作组的成员,帮助确定重叠的需求并解决招聘方面的共同挑战。

(4)自本备忘录发布之日起365天内,以及此后至少5年内每年,本节2条第(2)款所述的协调小组应向总统国家安全事务助理发布关于为国家安全目的整合和互操作性的人工智能工作和系统的联合报告。

第七节 定义

1、本备忘录使用第14110号行政命令第3节中规定的定义。此外,就本备忘录而言:

(1)“人工智能安全性”(AI safety)一词是指个人和组织最大限度地减少和减轻人工智能模型、整合模型的系统、模型使用模式的恶意使用、误用、故障、事故和意外行为对个人和社会造成潜在危害的机制。

(2)“人工智能保障性”(AI Security)是指保护人工智能系统(包括训练数据、模型、能力和生命周期)免受网络和物理攻击、盗窃和破坏的一系列实践。

(3)“涵盖机构”一词是指情报界的机构,以及美国法典第44编3502(1) 中定义的所有使用人工智能作为国家安全系统组成部分的机构,但总统行政办公室除外。

(4) “关键技术工件”(CTA)一词是指通常特定于单个模型或一组相关模型的信息,如果由模型开发人员以外的人掌握,将大大降低重新创建、获得或使用模型功能的成本。在当今人工智能行业占主导地位的技术范式下,经过训练的人工智能系统的模型权重构成CTA,在某些情况下,相关的训练数据和代码也是如此。未来的范式可能会依赖不同的CTA。

(5)“前沿人工智能模型”是指接近性能前沿的通用人工智能系统,以被广泛接受的公开基准来衡量,或对推理、科学和整体能力进行类似的评估。

(6)“情报界”(IC)一词具有美国法典第50编第3003条中规定的含义。

(7)“开放重量模型”是指重量可以广泛获得(通常通过公开发布)的模型。

(8)“美国政府”一词是指《美国法典》第44编第3502(1)条定义的所有机构。

第八节 一般规定

1、本备忘录的任何内容不得解释为损害或以其他方式影响:

(1)法律授予行政部门或机构或其首长的权力;或

(2)白宫行政管理和预算局长有关预算、行政或立法提案的职能。

2、本备忘录的实施应符合适用法律并视拨款情况而定。

3、本备忘录并不旨在、也不会创造任何一方针对美国、其各部门、机构或实体、其官员、雇员或代理人或任何其他人享有的、可在法律或衡平法上强制执行的权利或利益,无论是实质性的还是程序性的。

小约瑟夫·拜登

声明:本文来自奇安网情局,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。