2020年1月,美国白宫发布了《人工智能应用监管指南备忘录(草案)》,该备忘录从监管和非监管层面提出了人工智能应用相关原则和建议。
一、引言
根据美国第13859号行政令“保持美国在人工智能方面的领导地位”的相关要求,美国联邦管理和预算办公室(OMB)将会同科学技术政策办公室、国内政策委员会以及国家经济委员会发布一份备忘录,以指导有关人工智能(AI)的监管,并减少AI技术开发和应用的障碍。根据13859号行政令,OMB在考虑AI相关的政策法规时应继续促进技术创新,同时保护美国的技术、经济和国家安全,公民隐私、自由以及人权、法治,尊重知识产权等美国所尊崇的价值观。
二、研究范围
该备忘录提出的政策考虑仅针对联邦政府外部开发和部署AI的监管和非监管措施,尽管联邦机构目前以多种方式使用AI来执行任务,但政府开发使用AI不在本备忘录研究范围内。此外,该备忘录中的AI定义为“弱”AI,与人类认知能力相似甚至超越人类感知力的“强”AI也不在本备忘录研究范围。
三、鼓励AI的创新和发展
如13859号行政令所述,“美国政府的政策是维持和增强美国在AI方面的科学、技术和经济领导地位。”AI的部署致力于改善安全性、公平性、福利、透明度和其他社会目的,美国保持其在AI发展领域的全球领导者地位对于维护美国的经济和国家安全至关重要。开发和部署AI需采取相应的监管或非监管措施,以促进创新、增长并增强信任,同时保护美国的核心价值观,减少AI开发和部署中不必要的障碍。为此,联邦机构在决定是否以及如何对可能影响AI应用的领域进行监管时,应评估潜在监管对AI创新和增长的影响,利用AI补充或者替换原有系统时应考虑采用AI的潜在收益和成本。
四、监管原则
在针对通用或者特定行业AI应用程序的设计、开发、部署和操作制定监管和非监管措施时,应考虑以下十项原则。
• 公众对AI的信任。AI有望在社会和经济生活各个领域产生积极影响,包括运输、教育、金融、医疗保健、个人安全和制造业等。但是,AI应用程序可能会对隐私、个人权利、自治权和公民自由构成风险,它能在多大范围内继续应用很大程度上取决于公众的信任。因此,重要的是政府对AI的监管和非监管措施应促进AI的可靠、强大且可信赖,增加公众对AI的信任。
•公众参与规则制定。公众参与,特别是在AI使用有关个人信息的情况下,将改善政府部门的问责制和监管成果,并增加公众的信任和信心。政府部门应在可行且符合法律要求的范围内,为公众提供全程参与规则制定的机会,向公众宣传并提高其对标准和其他政策的认识。
•科研诚信与数据质量。政府制定对AI应用的监管和非监管措施时应充分利用科学技术信息及相关流程。对于政府部门掌握的信息,无论是政府部门生产的还是从第三方机构获取的(这些信息可能对重要的公共政策、私营部门的决定、包括消费者的决定产生重要影响),都应符合透明和合规性的要求。各部门应以一种既可以指导政策决策又可以增强公众对AI信任的方式制定AI的监管措施,最佳实践包括透明地阐明优缺点、预期的优化或结果、缓解偏见等。此外,为了使AI应用程序产生可预测、可靠和优化的结果,必须确保用于训练AI系统的数据达到高质量要求。
•风险评估与管理。AI的监管和非监管措施应基于对各个机构及其所应用技术进行共性风险评估和风险管理的基础上。不必试图避免所有可预见的风险,应使用基于风险的策略来确定哪些风险是可以接受的、哪些风险可能带来不可接受的损害、或者损害的预期成本大于预期收益。政府部门应透明地评估其风险,并在适当的时间间隔重新评估其假设和结论。具体而言,政府部门应根据其管辖范围内各种活动所带来风险的程度和性质来制定相应措施,这样可以避免不必要的预防性监管措施对创新的抑制。
•收益与成本。虽然已经有更广泛的法律可以适用于AI,但对于AI应用程序所作出决策的责任和义务问题,在某些情况下可能尚不清楚如何适用现有法律。因此,相关机构应在与法律相符的前提下,根据已确定的或者可预期的法律责任来评估相关的收益、成本,从而选择那些能够带来最大净收益(包括潜在的经济、环境、公共卫生和安全以及公平性等)的方法。此外,在评估AI成本和收益时还应考虑关键的要素,因为技术因素(例如数据质量)和与AI实施相关的人工流程的变化可能会改变风险以及收益的性质和程度。
•灵活性。在制定监管和非监管措施时,相关机构应采用基于性能的灵活性框架,以适应AI应用程序的快速变化和更新。鉴于AI发展的预期速度以及随之而来的对新信息和新证据的需求,试图出台严格设计好的法规来调整AI应用的技术规范将是不切实际的。有针对性地开展安全、隐私保护等方面的评估,对于实现灵活的、基于性能的监管方法是至关重要的。
•公平与非歧视。相关机构应以透明的方式考虑AI应用程序可能产生的歧视性影响。AI应用具有减少人类主观性歧视的潜力,但同时在某些情况下AI应用会引入现实世界的偏见,从而产生歧视性结果或决策,破坏公众对AI的信任和信心。因此,在考虑与AI应用相关的监管或非监管措施时,相关机构应依法考虑有关AI应用产生的结果和决策的公平性和非歧视性问题,以及AI应用与现有流程相比是否可能会降低非法、不公平或其他意想不到的歧视性影响。
•披露和透明度。除了有助于改进规则制定流程外,透明度和信息披露还可以提高公众对AI应用程序的信任和信心。构成适当的信息披露和透明度是依特定情况而定的,具体取决于对潜在危害的评估、危害的严重程度,技术水平以及AI应用程序的潜在利益等。相关机构在考虑采取其他措施来进行信息披露和提高透明度之前,应仔细考虑现有的、以及不断发展的法律、政策的要求。
•安全保障。相关机构应在AI设计、开发、部署和操作全流程中考虑安全问题,以确保AI系统处理、存储和传输信息的机密性、完整性和可用性。此外,还应进一步考虑确保系统弹性,防止不法分子对AI系统弱点进行攻击,包括AI操作带来的网络安全风险。在评估或引入AI监管政策时,相关机构应注意任何潜在的安全风险,以及可能恶意部署和使用AI应用程序的风险。
•跨部门协调。对AI的监管采取协调一致的整体性措施需要机构间的协调。为此,各机构应加强沟通、分享经验,并确保与AI相关的政策的一致性和可预测性,以促进美国AI应用的创新和增长,同时适当保护隐私、公民自由和美国的其他价值观,并在适当的时候允许针对特定行业和应用采取有针对性的监管措施。
五、非监管措施
对于特定的AI应用,相关机构可能发现现有的或者可预见将出台的法规缺乏明确的规定,或者新法规的出台不能证明其成本合理。在这些情况下,相关机构可能会考虑要么不采取任何行动,要么选择可能适合解决某些AI应用程序所带来风险的非监管措施。包括:
• 部门特定的政策指南或框架。相关机构应考虑利用任何现有的权威部门发布的非监管性政策声明、指南、测试和部署框架,以鼓励该部门的AI创新。
• 试点计划和实验。相关机构应考虑利用现有法律中规定的豁免情形,或允许为特定AI应用程序提供安全港的试点计划。作为此类计划的一部分,相关机构可能会收集有关AI应用程序的设计、开发、部署、操作或结果的数据,以增进其对收益和风险的理解,这可能会产生有用的数据,以为将来制定监管和非监管措施提供信息。如果此类信息涉及重大公共利益,则相关机构应考虑定期向公众进行通报。
• 自愿性共识标准。私营部门和其他利益相关者可能会制定与AI应用有关的自愿性共识标准,该标准提供了非监管措施来管理与AI应用相关的风险,这可能更适应快速发展的技术需求。相关机构应优先考虑自愿性共识标准,但也可以利用独立的标准制定组织制定的标准。
作者简介:贾宝国,中国信息通信研究院互联网法律研究中心研究员
声明:本文来自CAICT互联网法律研究中心,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。