今天和大家分享的是卡内基国际和平基金会专家的一篇观点文章。
美国的人工智能政策一直是——而且可能仍将是——由个别机构的方法和狭隘的立法组成的“马赛克”拼图,而不是一个集中的战略。
美国缺乏类似欧盟人工智能法案的旗舰立法举措,这常常使观察者误以为美国在人工智能领域没有采取实质性行动,或者将最近的《人工智能权利法案蓝图》或《人工智能风险管理框架》等个别碎片视为美国更广泛战略的象征。事实上,要描绘美国在人工智能领域的完整战略,需要了解美国国会立法如何构建和提供资源支持,以及乔·拜登和唐纳德·特朗普总统政府如何进行政治指导,以及联邦机构如何(或者未如何)执行这些战略。
结构与资源:国会
除了制定法规外,国会还为负责执行这些法规的联邦机构提供结构、资源和授权。尽管到目前为止,国会在私营部门如何使用人工智能系统方面避免了新的监管,但它已经大量投入人工智能研发,并在现有权限范围内提高联邦政府使用和管理人工智能的能力。
近年来,国会通过的重要人工智能相关法案(见表1)主要集中在两党共同关注的优先事项上。国会在很大程度上避免了制定旨在塑造行业使用人工智能的新法律,而拟议中的法案,如旨在规范私营部门人工智能使用的《算法问责法案》,难以获得支持。相反,国会围绕“确保美国在人工智能研究与发展领域的持续领导地位”(2020年国家人工智能倡议)展开行动,立法主要关注鼓励和指导政府自身使用人工智能,如旨在“促进联邦政府采用人工智能技术”(2020年政府人工智能法案)的努力。两党立法将道德关切植根于现有法律(“民权”)或普遍认同的高级价值观(“值得信赖”的系统,“负责任”的使用),避免了可能引起分歧的处方,承认与人工智能相关的道德原则(如“偏见”、“隐私”和“可解释性”),但在人工智能背景下如何应用这些原则并未具体说明。
归根结底,这让由白宫领导的联邦机构既受到限制,又享有自由。在没有授予机构新权力的法律下,机构被迫依赖对现有权力的重新解释来规范行业对人工智能的使用【译者注:见美国数个监管机关“关于对自动化系统中的歧视和偏见进行执法行动的联合声明”(全文翻译)】。但是,通过对如何应用与人工智能相关的道德原则保持较少的规定性,机构在决定如何管理这一规定以及自身使用人工智能方面可以保留一定的自由。为了使机构有能力执行,立法者旨在通过鼓励协调(如通过人工智能特别委员会),培训(如《2022年采购人员人工智能培训法案》所概述的),以及指导(如要求管理和预算办公室[OMB]制定的备忘录)等方式来增强政府的人工智能能力。立法还为人工智能研发提供了更广泛的资金支持,部分强调解决潜在的道德问题。
人工智能风险管理框架(RMF)【译者注:见NIST《人工智能风险管理框架》全文翻译】象征着国会在人工智能监管方面采取的轻触式方法。虽然它是由国家标准与技术研究院(NIST)创建的联邦机构,但它是由国会非常具体地授权的,并反映了国会更广泛的方法。RMF 是一套可以应用于人工智能应用的风险管理实践的详尽集合,旨在汇集专业知识并提供指导,而不具有规定性。NIST 极为明确地强调了 RMF 的自愿性质,甚至鼓励使用它的人只使用框架的部分,并根据自己的需求对其进行调整。尽管 RMF 对道德问题和其中的权衡进行了更详细的描述,但它仍然小心翼翼地避免画出可能引起党派纷争的界线。
综合来看,包括 RMF 在内的国会努力旨在通过为机构提供所需的工具和知识来提高政府的监管能力,但它们避免了关于如何处理人工智能的具体要求。这为未来可能更具约束力的监管奠定了基础,使政府具备识别和减轻问题的所需工具,尽管目前尚不清楚这是否会实现。例如,NIST 2014 年的网络安全框架和相关标准(统称为与 RMF 类似的角色)在后续的行政命令、立法和拜登政府最近的国家网络安全战略中得到了引用。
指导:拜登和特朗普白宫
白宫领导联邦机构解释和执行国会通过的法律。在这个过程中,白宫拥有许多工具,可以指导监管权衡和优先处理某些问题。白宫的指导意见会在不同政府之间发生变化,但许多关键的与人工智能相关的优先事项在政治转型中得以保留。
鉴于国会关注为人工智能建立能力,白宫在设定优先事项方面具有很大的自由裁量权。拜登政府的人工智能政策重点文件《人工智能权利法案蓝图》【译者注:见美国《人工智能权利法案蓝图》全文翻译】旨在实现这一目标。与国会行动相比,该蓝图采取了更强硬的立场,从而导致一些党派紧张。然而,这些紧张关系可能没有表面上那么深刻:对特朗普时期的行政命令的审视显示,两届政府关注的问题类似,尽管侧重点有所不同。
该蓝图于 2022 年 10 月发布,概述了拜登政府对人工智能的做法。与其他白宫战略文件一样,它旨在围绕一组核心优先事项协调各联邦机构的努力。以行政优先事项(如民权和平等)为重点,蓝图列举了个人用户应该从算法系统中获得的标准,如有效性、隐私和免受歧视的保护。但是制定该文件的白宫办公室,即科学技术政策办公室,是一个没有直接监管权力的咨询小组。文件开头的法律免责声明指出,该蓝图是一个纯粹自愿的工具,不构成美国正式政策。
因此,该蓝图让一些期望美国制定有实际效力的人工智能政策的团体感到失望。然而,蓝图的非约束性质与白宫引导而非直接决定科技政策执行的倾向一致。无法像国会那样通过立法,白宫寻求引导负责实施国会通过法律的相关联邦机构。它拥有一系列强大的政治和程序性手段来监督机构。白宫负责监管程序的审批,提名设定机构方向的高层任命人选,并可以将大量政治注意力引向感兴趣的议题。行政命令使白宫能够向机构提供具有法律约束力的指示;例如,拜登政府最近的一项关于公平的行政命令包含了与数据和算法相关的条款,灵感来自《人工智能权利法案蓝图》。但在大多数情况下,白宫的人工智能政策举措旨在作为自上而下的指导,就像蓝图一样,以便进行定向和优先排序。
尽管如此,蓝图因背离像 RMF 这样的国会授权行动中的可接受用词而引发了一些争议。这种差异反映了文件背后的不同动机。例如,RMF 是一个灵活的工具,旨在帮助用户识别和减轻与他们息息相关的人工智能风险,而蓝图则试图对某些具有价值取向的设计选择如何(或者,通过指出过去的错误,不应该)作出更明确的指导。因为它超越了 RMF 的限制——即其进行判断和建议,而不仅仅是指出问题和可能的解决方案——蓝图不可避免地引发了分歧。毫无疑问,一群国会共和党人指责了蓝图,指出其方法与国会迄今为止的方法不同。但最终,在实施过程中对法律和价值观的解释是必要的,而蓝图正是朝着这个方向迈出的一步。如果立法中没有明确的解释,那么这将由行政部门来做出决定,由白宫领导——当然,还有来自立法和司法部门的制衡。
尽管蓝图引发了党派紧张关系,但拜登政府的人工智能政策工作仍受到特朗普时期努力的启发,尽管侧重点和言辞有所不同。乍一看,拜登白宫的自上而下指导所倡导的谨慎方法可能与特朗普政府倡导的更为放手、以自由市场为导向的政治哲学以及在人工智能领域“领先”的地缘政治必要性形成鲜明对比。特朗普政府关于“保持美国在人工智能领域的领导地位”的行政命令以及特朗普时期白宫办公室管理和预算(OMB)制定的更详细的备忘录为考虑制定新规定的机构确定了具体方法。以支持“自由市场、联邦主义和良好监管实践”为重点,该备忘录敞开大门,允许“有针对性和基于证据”的人工智能相关规则,但它敦促机构考虑非约束性方法,避免采取可能“毫无必要地阻碍人工智能创新和增长”的行动。
但在修辞和规范侧重点不同之下,拜登和特朗普政府的人工智能相关指导在实质上存在很大的重叠。实际上,拜登政府既没有执行也没有废除特朗普政府关于人工智能的行政命令,这表明优先次序上的差异,而不是彻底的分歧。例如,两届政府都强调算法不公正是一个问题,但拜登政府的蓝图建议采取“积极持续的措施”来减轻这一问题,而特朗普政府的监管指导则将“创新”置于首位,同时明确指出,人工智能系统的影响也可能是积极的,因为它们“有可能减少当前的歧视”。
特朗普政府的 OMB 备忘录指示机构考虑民权和隐私方面的潜在风险,即使它告诫对监管采取“谨慎”的方法。另一个特朗普政府的行政命令,关于政府使用人工智能,鼓励机构采用“值得信赖”的人工智能工具,并要求联邦政府全面盘点人工智能系统的使用。
执行:联邦机构
联邦机构负责根据国会授予它们的权力来执行国会制定的法律,这些机构通常由总统任命的官员领导。实际上,各机构公开回应对内部AI使用的监管或审查要求的程度有限,各机构采取行动的程度也大相径庭。此外,一些机构在很大程度上被排除在现行要求之外。
毫无疑问,在十几个机构中已经有很大的进展,尽管不是全面的,这些进展也是白宫在AI权利法案蓝图中强调的。平等就业机会委员会(EEOC)通过研究AI对就业决策的影响,探讨如何使雇主继续遵守平等机会法,成为了一个典范。值得注意的是,在没有国会的新立法之前,机构的行动范围仅限于实施现有立法。这些行动可以是基于现有权力制定新规则,也可以是机构向世界宣布新的AI相关解释,例如联邦贸易委员会(FTC)提醒“保持AI声明的真实性”。
尽管有一些典范,但从国会或白宫对AI的影响来看,整体情况仍然扑朔迷离。例如,关于政府使用AI的指导原则应该根据2020年政府AI法案,通过管理和预算办公室(OMB)向下传递至各机构。不幸的是,OMB在发布这一指导方针方面已经拖延了一年多的时间,使得各机构在面临其他要求时,陷入了不确定的境地,这些要求的合规性也有待提高。此外,蓝图能否推动新的倡议尚不明朗;相反,许多倡议(如EEOC的倡议)都早在蓝图出现之前就已经开始,或者无论蓝图是否存在都将发生。自上而下的策略或许为有动力的机构提供了方向、支持和政治保护,但那些与政府指导或国会要求背道而驰的机构(例如,由于人员不足或优先级问题),目前面临的压力较小。这些问题并非特定于AI政策,也不应仓促地将其解读为联邦机构对新政策的反常抵制。然而,承认机构合规性的不稳定性,尤其是在那些不被认为是优先事项的问题上,对于了解美国AI政策的现状至关重要。
与此同时,执法和国家安全机构在使用AI方面基本上可以自行制定程序。国内执法明确免于遵守蓝图的预防性指导方针,国会关于政府使用AI的法规也大多免于适用于与安全相关的机构。国防部独立制定了一套负责任的AI原则,在某些方面,其实施计划和官僚创新可以为其他国内努力提供示范。
结论
寻找美国AI政策的统一描述的人们不会找到一个与欧盟拟议的AI法案相类似的简单对应物。但这并不意味着没有采取任何行动。实际上,已经有大量投资流向AI研发和政府AI能力建设。虽然确实更多关注于非约束性、软法治理方式,但部门监管机构以及州和地方政府继续实施有意义的约束性规定。
尽管如此,美国AI政策的前进道路仍然不明朗。现有法律和政策实施方面的疲软记录突显了需要增加关注和资源的必要性。这些政策所要求的信息收集也将在新立法中发挥重要作用,以便通过发现机构权限方面的空白来确定。
目前,在国会分裂控制和两党对于重大横向监管都缺乏胃口的情况下,全面立法AI的可能性并不大。然而,在隐私、平台透明度或保护儿童在线安全等方面,两党可能会达成有关狭义立法的共识。此外,国会继续关注地缘政治竞争可能会导致美国AI研发的进一步投资。国会还可以加强对机构遵守现行法律的执行力度;2022年《推进美国AI法案》对2020年《政府AI法案》要求的重申至少表明国会并未放弃这些要求。
新的想法和动力可能源于最近成立的国家AI咨询和协调机构的建议,但目前这些努力缺乏过去有影响力的AI咨询团队所拥有的资源。这些机构还可以支持现有政策措施的实施,为美国AI政策采取更统一、更明智的方法奠定基础。
联邦机构的使命是塑造内部AI的使用以及其管辖范围内的AI使用,观察者应关注这些机构的即时、具体行动。然而,政治风向的变化,例如政府更迭,可能导致政策发展难以追踪或预测。在下届政府是否将跟进尚不明朗的情况下,各机构可以慢步推进合规性以避免重复性工作。新政府还可以调整监管解释;例如,特朗普时代的消费者金融保护局工作人员对信贷机构使用算法的监管采取了放任的态度,而接替他们的拜登任命人员则加紧了这些规定。总之,在没有新立法的情况下,美国实际上在尝试现行监管框架的适应性到底有多大。
Table 1: A Selection of Key U.S. AI Policy Actions | ||
Actor | Action | Function |
Trump administration | Executive Order 13859: "Maintaining American Leadership in AI" (2019) | Describes principles and strategic objectives meant to guide AI-related agency actions toward increasing U.S. competitiveness in AI. Requests that OMB develop guidance for agencies considering regulating AI applications. Establishes AI as a key priority in R&D investment, agency data sharing, and workforce development. |
Executive Order 13960: "Promoting the Use of Trustworthy AI in the Federal Government" (2020) | Describes principles for government use of AI and requests that OMB develop more detailed guidance. Requires an inventory of AI systems used by agencies and the creation of interagency forums to create best practices. Requests fellowship programs to prioritize bringing AI-related talent into government. | |
OMB Memo M-21-06: "Guidance for the Regulation of AI Applications" (2020) | Written in response to Executive Order 13859. Provides more elaborate guidance and considerations for agencies considering regulating AI applications. Advocates a focus on voluntary measures. Requests that agencies report information about AI use cases in their regulatory authority to OMB. | |
Biden administration | Blueprint for an AI Bill of Rights (2022) | Lays out nonbinding ethics- and civil rights-based principles for government and industry use of AI and describes example agency actions taken in support of these principles. |
Executive Order 14091: "Further Advancing Racial Equity and Support for Underserved Communities . . ." (2023) | Encourages a government-wide focus on equity, including reiterating efforts to enable data-driven assessments of equity in agency actions and directing agencies to "protect[] the public from algorithmic discrimination." | |
Congress | AI in Government Act of 2020 | Creates an AI Center of Excellence to facilitate government AI adoption. Instructs OMB to create guidance informing government AI adoption and policy development. |
National AI Initiative Act of 2020 | Directs billions of dollars to the Department of Energy, Department of Commerce, and National Science Foundation to support AI R&D. Mandates that NIST develop the RMF. Establishes AI-related coordination and advisory bodies in government. | |
Advancing American AI Act (2022) | Defines principles for government use of AI; encodes into law requirements similar to Executive Order 13960"s, which requires an inventory of agency AI use and the development ofcoordinated guidance from OMB. | |
AI Training for the Acquisition Workforce Act (2022) | Requires AI training course for government acquisition employees. | |
Federal agencies (select examples) | EEOC: AI and Algorithmic Fairness Initiative (2021) | Issues guidance on use of AI in employment decisions. Collects best practices. Gathers information on use of AI in employment decisions. |
Health and Human Services: "AI at HHS" (2021) | Executes cross-cutting strategy for agency-wide responsible use of AI. Ensures compliance with AI-related federal mandates. | |
NIST: AI Risk Management Framework (2023) | Voluntary framework intended to help any organization deploying AI to assess risk and identify points of intervention. Mandated by National AI Initiative of 2020. | |
National AI Research Resource Task Force (report published 2023) | Task force mandated by National AI Initiative of 2020 to investigate creation of a National AI Research Resource. Would provide researchers with computational resources, data, and support, among other tools. | |
State and local governments | Legislation on topics such as digital privacy and AI use cases | Establishes locally binding requirements for AI-related issues. |
声明:本文来自网安寻路人,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。