进入2023年中期,ChatGPT等生成式人工智能工具实现了持续的增长和普及。截至今年5月份,chat.openai.com的总访问量已达到18亿次。然而,随着人工智能在世界范围内的流行,它提出的问题与提供的答案一样多,其中最主要的问题是:人工智能应该如何治理?为此,国际隐私专业协会(IAPP)于6月发布报告《美国联邦人工智能治理:法律、政策和战略》(US federal AI governance: Laws, policies and strategies),探讨ChatGPT风靡背后美国联邦人工智能治理现状。
摘译 | 李秋娟/赛博研究院实习研究员
来源 | IAPP
在人工智能法律和政策制定层面,美国白宫、国会和一系列联邦机构(包括联邦贸易委员会、消费者金融保护局和美国国家标准技术研究院等)出台了一系列与人工智能相关的举措、法律和政策。
01 白宫的人工智能治理政策
白宫建立了人工智能战略的基础,为未来如何解决这项新技术提供了诸多法律和政策指引。其中,在奥巴马和特朗普政府之后,美国的人工智能治理政策在拜登执政期间得到进一步发展。
拜登政府
人工智能治理政策
联邦人工智能治理政策的里程碑之一是2022年10月发布的《人工智能权利法案蓝图》。为“指导自动化系统的设计、使用和部署,保护人工智能时代的美国公众”,蓝图列出了五项原则,这些原则围绕安全有效的系统、防止算法歧视、保护数据隐私、通知及说明、人类参与决策制定五方面展开,为人工智能治理提供了支持框架。
此外,今年2月,拜登总统签署了《关于通过联邦政府进一步促进种族平等和支持服务欠缺社区的行政命令》,提出要“指示联邦机构根除在设计和使用AI等新技术时的偏见,并保护公众免受算法歧视。”
2023年5月下旬,拜登政府又采取了多项行动,进一步界定白宫的人工智能治理方法。美国科学和技术政策办公室(OSTP)发布了修订后的《国家AI研发战略计划》,试图“协调和集中联邦对AI的研发投资”。OSTP还发布了一份信息请求,寻求有关“减轻人工智能风险、保护个人权利和安全以及利用人工智能改善生活”的意见。
02 国会的人工智能治理政策
国会以其特有的渐进方式制定人工智能政策。2019年以前,立法者对人工智能的大部分关注都集中在自动驾驶汽车、国家安全领域人工智能的应用等领域。
2021年1月,美国正式颁布《2020年国家人工智能倡议法案》,旨在确保美国在全球AI技术领域保持领先地位,是与AI相关的一项重要立法发展。该立法强调要进一步强化和协调国防、情报界和民用联邦机构之间的人工智能研发活动;同时,设立国家人工智能倡议办公室,承担“监督和实施美国国家人工智能战略”等职责。
为应对人工智能在各个领域日益频繁的使用,国会还修改了现有的法律和政策。例如,在通过《2018年美国联邦航空局重新授权法案》时,国会增加了“建议联邦航空管理局定期审查航空人工智能状况,并采取必要措施应对新发展”的措辞。另外,《推进美国人工智能法案》和《人工智能培训法案》是第117届国会(任期为2021年1月-2023年1月)提出或通过的其他AI相关立法。
近期美国提出的
人工智能相关立法
为了更好地应对人工智能时代,当前的第118届国会也提出了诸多新法案和修法建议,具体包括:
1.HR 3044(2023年5月发布)。该法案将修订1971年的《联邦选举活动法案》,设定在政治广告中使用生成式人工智能的透明度和问责制规则。
2.众议院第66号决议(2023年1月出台)。该决议的既定目标是“确保人工智能的开发和部署以安全、合乎道德、尊重所有美国人的权利和隐私的方式进行,并确保人工智能的益处得到广泛传播,并且将风险最小化。”
3.《停止监视法案》(Stop Spying Bosses Act),将禁止雇主为了预测其员工行为,而在工作场所使用自动决策系统进行监视。
4.《美国数据隐私和保护法案》(American Data Privacy and Protection Act,ADPPA)所定义的“覆盖算法”,将使用机器学习、自然语言处理或AI技术的计算过程纳入在内。最新版本的ADPPA还规定,如果某些实体“以对个人或群体造成伤害的间接风险的方式”使用上述算法,则应当进行影响评估。另外,只要覆盖算法执行了“单独或部分收集、处理或传输覆盖数据以促进相应决策”的操作,该实体就需要记录“算法设计评估”过程以减轻风险。
5.《过滤气泡透明度法案》(Filter Bubble Transparency Act)将适用于使用“算法排名系统”的平台。
6.《消费者在线隐私权法》(Consumer Online Privacy Rights Act,COPRA)将源自AI的计算过程纳入“算法决策”的定义范围内。
03 联邦机构的人工智能治理政策
事实上,每个联邦机构都在联邦政府内部以及较小程度上围绕商业活动推进AI治理战略。
国家标准与技术研究院(NIST)率先于2019年8月针对EO 13859发布了报告《美国在人工智能领域的领导地位:联邦参与开发技术标准和相关工具的计划》。该报告确定了人工智能标准的重点领域,并在“美国NIST人工智能风险管理框架”中提出了一系列推进国家人工智能标准制定的建议。
2020年年中,联邦贸易委员会(FTC)参与到人工智能治理、监管和执法中来。其发布的指南强调了FTC对公司使用生成式人工智能工具十分关注,规定公司使用生成式人工智能“有意或无意、不公平或欺骗性地引导人们在财务、健康、教育、住房和就业等领域做出有害决定”的行为受到FTC监管。
2023年4月,FTC与美国消费者金融保护局(CFPB)、司法部(DOJ)民权司、平等就业机会委员会(EEOC)发表联合声明,承诺将大力执行法律和法规,监督AI等技术的发展与使用。
与此同时,国家电信和信息管理局(NTIA)发布《人工智能问责制政策征求意见稿》,征求公众对“支持发展人工智能审计、评估、认证和其他机制以建立对人工智能系统的信任”的政策的反馈。NTIA可能会使用其收到的意见就AI治理政策问题向白宫提出建议。
许多其他美国机构也已经制定了他们自己的AI计划,并在其部门内创建了以AI为中心的办公室。例如,能源部AI智能和技术办公室与NIST协商制定了AI风险管理手册,并于2022年4月成立了AI推进委员会。商务部内部,美国专利商标局创建了人工智能(AI)和新兴技术工作组,以更好地研究这些技术在专利和商标审查中的使用及其对知识产权的影响。美国教育部教育技术办公室也于近期发布了一份关于人工智能在教育环境中带来的风险和机遇的报告。
04 美国人工智能治理的立法趋势
在世界各地,尤其是在美国,围绕人工智能治理的最紧迫问题涉及现有法律对新技术的适用性。回答这些问题将是一项艰巨的任务,涉及重大的法律修改和技术复杂性。美国现阶段的人工智能监管的侧重点,在于更多地弄清楚现有法律如何适用于人工智能技术,而不是颁布和应用新的、专门针对人工智能的法律。
例如,FTC多次表示,FTC法案第5条禁止不公平或欺诈行为适用于AI和机器学习系统的使用。FTC在其《关于使用人工智能和算法的商业指南》中也对1970年的《公平信用报告法》和1974年的《平等信用机会法》做了解释,称“两者都涉及自动化决策,金融服务公司一直在将这些法律应用于基于机器的信贷几十年来的承销模式。”
声明:本文来自赛博研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。