文 | 上海交通大学计算法学与 AI 伦理研究中心执行主任 胡正坤;中南大学哲学系硕士研究生 李玥璐

作为一项新兴颠覆性技术,人工智能(AI)领域在过去十多年取得了多个突破性进展,同时也伴随一系列不确定的风险问题。为确保人工智能技术始终服务于人类可持续发展,加强人工智能治理已成为全球共识。目前,全球统一的人工智能监管范式虽未形成,各国各地区却都积极推动适应本国本地区技术发展进程的人工智能治理体系工作。各国和地区人工智能监管模式在呈现出不同特点的同时,又在一些重点领域出现治理趋同化的态势。梳理欧盟、美国、新加坡等国家和地区人工智能治理方案,总结其所呈现的阶段性特点,可以为未来的人工智能治理提供有价值的参考。

一、主要国家和地区的人工智能治理方案

为了更好防范人工智能技术可能带来的负面性,全球主要国家和地区均从战略层面将人工智能治理问题纳入整体规划,并基于不同的文化背景、产业情况、发展特点等因素,形成各具鲜明特点的治理方案。

(一)欧盟方案

欧盟的人工智能治理核心理念以捍卫个人权利和民主法治等欧洲基本价值观为基础,并将人工智能治理原则嵌套在技术运用过程中,呼吁遵守更严格的监管标准,依托强力监管优势,引领全球人工智能治理进程。

建构协调一致的治理体系。2018 年 4 月,欧盟发布《人工智能政策》(Artificial Intelligence for Europe),确保欧盟具有与人工智能发展和应用相适应的伦理和法律框架,将欧盟整体在人工智能领域的国际竞争力最大化。2020 年 2 月,欧盟发布的《人工智能白皮书:追求卓越和信任的欧洲方案》(White Paper:On Artificial Intelligence-A European Approach to Excellence and Trust)提出,在欧洲、各成员国和地区层面实施一致措施的政策框架,试图在私营企业和公共部门通力合作下打造一个可信赖的人工智能生态系统。2021 年 4 月,《人工智能法案》(Artificial Intelligence Act)提出建立欧洲人工智能委员会,推动人工智能新规则、标准的出台与实施完善,并借此构建各国监管部门的联络渠道,协调欧盟层面的人工智能监管政策,保持人工智能监管体系的统一。2023 年 6 月,在经历多轮磋商和内容修订之后,欧洲议会投票通过《人工智能法案》。其中,针对生成式人工智能,法案还增加了新提出的透明度要求。

创新人工智能“沙盒”监管。2022 年 6 月,西班牙政府和欧盟委员会在布鲁塞尔举行的一次活动中介绍了第一个人工智能监管沙盒的试点计划。沙盒为人工智能系统的开发、部署、验证、测试提供一个可控的隔离环境,使欧洲企业可在免责条件下进行人工智能相关的试验和创新,且试验全过程受到监管部门的监督,体现了事中动态监督的理念。通过在可控范围内实行容错纠错机制,在杜绝人工智能未知问题向不可控外部环境扩散风险的同时,也为人工智能创新企业创造了相对宽松的发展环境。

(二)美国方案

与欧盟不同,美国尚未出台针对人工智能治理的国家层面的综合立法,却已经基于不同的技术应用场景颁布了规制性文件,特别是在自动驾驶、算法推荐等领域都有较为成熟的治理经验。

联邦政府审慎监管。自奥巴马政府以来,美国联邦政府对人工智能领域的关注度日益增加。拜登政府对人工智能技术的态度更为积极,将其视为影响美国国家安全和霸权地位的关键考量。美国联邦政府强调审慎监管促进创新发展,多次声明人工智能技术发展是“以透明、基于共识以及私营部门为主导的方法制定新兴技术标准……并帮助美国公司在公平的环境中竞争。”2020 年,美国白宫科技政策办公室(OSTP)发布《人工智能应用监管指南》(Guidance for Regulation of Artificial Intelligence Applications),要求充分评估监管对人工智能创新和发展的影响,避免采取阻碍人工智能创新和发展的监管、非监管措施,以及可能给人工智能系统施加过高标准的预防性路径。该指南重申了应少用“硬性”监管,鼓励行政机构与私营部门合作,在治理与监管中突出市场的作用,减少人工智能技术应用的障碍以及促进技术创新的宗旨。拜登上台后,美国与欧盟在人工智能监管规制等方面寻求合作,在人工智能监管政策方面呈现出与欧盟趋同和对标的态势,但仍倾向于保持美国的技术优势,确保符合“美国价值观”。2023 年 1 月,美国国家标准与技术研究所(NIST)发布了《人工智能风险管理框架 1.0》,促进可信赖、负责任人工智能系统的开发与应用。4 月,美国商务部下属国家电信和信息管理局(NTIA)发布《人工智能问责政策》(RFC)征求意见稿,就人工智能审计、安全风险评估、认证等内容征求意见,以期实现人工智能系统的合法、有效、合乎道德、安全可信。

地方政府聚焦重点。总体看,美国地方政府紧跟行业发展趋势,在自动驾驶、个人隐私保护、算法治理等多个领域做出了立法探索。2011 年,美国内华达州出台第一个关于自动驾驶车辆检测的立法,要求对自动驾驶汽车做出监管。2018 年,美国加利福尼亚州通过的《增加在线透明度法案》(Bolstering Online Transparency Act)是首个此类法案。2019 年,美国伊利诺伊州颁布《人工智能视频面试法》(Artificial Intelligence Video Interview Act),规范以人脸识别方式的视频面试。2021 年,美国科罗拉多州在《科罗拉多州隐私法》(Colorado Privacy Act)的基础上制定并颁布一项人工智能法,禁止保险公司使用“任何外部消费者数据和信息来源,以及使用外部消费者数据和信息来源的算法或预测模型”。该法将于 2023 年 7 月 1 日开始生效。

(三)新加坡方案

新加坡作为亚洲地区较早开展人工智能治理的国家,追求发展与治理的双赢。同时,新加坡借助积攒的技术优势,打造人工智能治理工具箱,在监管工具创新方面保持领先地位。

平衡产业发展与风险治理。新加坡在注重技术监管、产业发展的同时,兼顾“以人为本”的道德原则。2017 年 5 月,新加坡政府发布“新加坡人工智能”(AI Singapore)项目,提出了三个发展目标:一是向下一个人工智能浪潮投资;二是解决主要的社会和经济挑战;三是在工业界广泛采用人工智能技术。2019 年,新加坡推出亚洲首个人工智能监管模式框架。该框架主要在企业使用人工智能过程的四个方面提出道德指导原则及措施,分别为内部监管、人工智能决策的风险管理、运营管理以及消费者关系管理。该框架的两个关键指导原则是协助企业确保以人工智能做出的决策能有合乎解释的依据、具有透明性,并且对消费者公平;确保人工智能的使用能以人为本,人工智能解决方案应该以人为中心。

打造人工智能治理工具箱。新加坡政府在监管工具创新方面步伐领先。2019 年 11 月,新加坡金融管理局联合行业推出了人工智能评估框架 Veritas,保护银行和保险公司客户免于受到不公平对待。2022 年 5 月,新加坡政府首先发布官方人工智能治理评估框架和工具包 A.I.Verify。该评估框架和工具包由资讯通信媒体发展局(IMDA)和个人数据保护委员会(PDPC)共同开发,聚焦使用人工智能及人工智能系统的透明度、理解人工智能模型如何做出决定、确保人工智能系统的安全性和弹性、确保公平,以及确保人工智能系统的正确管理和监督等 5 个支柱和透明性、可解释性、可复现性、安全性、鲁棒性、公平性、可问责性以及人类能动性与监管等 8 项原则,为开发者和企业提供人工智能治理测试框架和工具包。该工具包系自愿申请使用,有助于提高公众对人工智能技术的接受和信任度。

(四)中国方案

中国在人工智能治理领域也不断努力构建全方位治理体系,同时,加强对重点应用场景的风险管控,建立三级管理体系,以便明确职责划分。

建立健全多方位治理体系。目前,随着《关于加强科技伦理治理的意见》《关于加强互联网信息服务算法综合治理的指导意见》的推出,中国在人工智能治理领域开展了众多具有创新意义的探索实践,已基本建立了从研发到应用的政策体系和治理抓手。同时,中央网信办在算法应用层面分别就算法推荐、深度合成,以及人工智能生成内容发布了《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等规范文件。

明确监管架构和职责划分。2023 年 4 月,中国科技部就《科技伦理审查办法(试行)》向社会公开征求意见,明确了科技伦理审查的适用范围、责任主体、审查程序和监管要求。该办法围绕科技伦理审查职责和监管职责的划分,进一步确立了从国家、地方和行业主管部门到科研单位的三级管理体系,并尝试从研发角度为高风险科技活动划定范围。人工智能属于该办法重点关注的三类科技活动之一。

二、人工智能治理的阶段性特征

与传统技术有所不同,人工智能领域正呈现出发展与治理同步推进的状态。从主要国家和地区发布的人工智能法案、政策文件,以及采取的监管措施看,全球人工智能治理主要表现出四个阶段性特点。

(一)“软法”与“硬法”协同

2021 年,随着欧盟《人工智能法案》(Artificial Intelligence Act)提案的发布,全球人工智能监管的序幕正式拉开,全球人工智能治理趋势从此由“软法”引领转向“硬法”规制,人工智能治理正式进入“软法”与“硬法”协同治理的阶段。特别是随着 ChatGPT 等生成式人工智能的快速发展,全球人工智能立法进程进入快车道。经合组织(OECD)官方网站数据显示,目前,全球已有 69 个国家和地区提出了 800 余项人工智能政策举措。我国也继《关于加强互联网信息服务算法综合治理的指导意见》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等政策文件之后,于 2023 年 4 和 7 月连续推出了《科技伦理审查办法(试行)》(征求意见稿)以及《生成式人工智能服务管理暂行办法》。然而,由于人工智能的技术复杂性、高频创新性和战略敏感性,“软法”将始终是人工智能治理体系中必不可少的组成部分。

(二)全过程、全周期风险治理

2020 年 2 月,欧盟发布的《人工智能白皮书:追求卓越和信任的欧洲方案》提出,建立涵盖事前、事中、事后各个环节的全面监管机制。《人工智能法案》提案提出风险管理措施覆盖入市前和入市后。2022 年 3 月,中国发布《关于加强科技伦理治理的意见》,提出“伦理先行”,将科技伦理要求贯穿科学研究、技术开发等科技活动全过程。2022 年 8 月,沙特阿拉伯发布《人工智能伦理原则》(草案)(AI Ethics Principles),提出人工智能伦理实践在人工智能系统的整个生命周期相互影响,应确保所提及的人工智能生命周期的每个阶段都包含伦理原则和相关治理办法。2023 年 1 月,美国国家标准与技术研究院(NIST)发布《人工智能风险管理框架》(AI RMF 1.0),旨在用于自愿解决人工智能产品、服务和系统的设计、开发、使用和评估的风险,并在人工智能系统生命周期的开始阶段应用该框架。将伦理与治理嵌入人工智能全生命周期已经逐渐成为全球共识,在每个流程和每个环节,把存在的风险防患于未然,形成政府、企业、用户等多方共治的良性生态。

(三)风险分级分类管理

自欧盟《通用数据保护条例》(GDPR)首次提出“基于风险的治理路径”(Risk-Based Approach)以来,风险成为各国为人工智能立法的关键词。2021 年的欧盟《人工智能法案》提案,将人工智能技术可能带来的风险划分为不可接受的风险、高风险、有限的风险和极小的风险四个等级,明确以高风险为主的监管思路。2021 年 9 月,中国印发《关于加强互联网信息服务算法综合治理的指导意见》,提出要推进算法分级分类安全管理,有效识别高风险类算法,实施精准治理。2023 年 1 月,美国国家标准和技术研究院发布的《人工智能风险管理框架》采取了对人工智能进行分级监管的思路。分级监管可以有效提升监管精准化水平,按照不同风险等级积极使用政策指南或监管工具,实现对现有资源的准确调配,高效应对人工智能技术引发的各类社会风险。

(四)算法透明和可问责

各国立法重点关注提升算法透明度和可问责性。2021 年 5 月 21 日,英国发布《在线安全法(草案)》(Draft Online Safety Bill),针对政府公共机构使用人工智能算法系统推出了统一的算法透明度标准,要求平台服务的提供者就其提供的每一项服务准备年度的透明度报告。2021 年 12 月,中国发布的《互联网信息服务算法推荐管理规定》提出,平台应当以明显方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图、主要运行机制等。2022 年,美国民主党参议员提出的《2022 算法责任法案》(Algorithmic Accountability Act of 2022)将提升算法透明度作为工作重点,要求开发和使用自动化决策工具的公司应当对算法的偏见性、有效性和其他方面进行评估,消除可能对少数群体存在的歧视。同年,欧盟议会表决通过《数字服务法》(Digital Services Act),要求互联网平台提高算法透明度,禁止互联网平台通过“算法黑箱”影响用户的自由和便捷选择。打破算法“黑箱”可以让用户和监管了解算法服务提供者如何使用算法处理采集的数据、了解算法工作原理和工作机制。对开发侧来说,提升算法透明度是一种自我约束,开发人员需要审慎对待研发过程中可能出现的风险漏洞;对监管侧来说,提升算法透明度就是提升监管便利度和问责效率。

三、结 语

当前,生成式大模型的快速发展正在引发人工智能的生产范式和风险范式的重大变革。相较于传统专用模型,生成式大模型为人工智能治理带来了许多新的挑战。一方面,由于任务场景的开放性,导致风险的潜在边界理论上是无限大的,进而导致风险防不胜防,而且风险评估标准更加难以界定。同时,跨模态数据交互能力的实现,在大幅降低人工智能工具应用门槛的同时,也使人工智能滥用的风险呈指数级上升。并且,由于生产范式的转变,基础模型的风险也可能会随着下游应用的规模推广而形成规模化扩散。此外,因为诸多安全机制的嵌入也会影响模型自身的表现,如何实现平衡,也为业界带来了不小的挑战。

在此背景下,应当深入探索人工智能治理新范式,确保人工智能的发展更好服务人类社会的可持续发展。但是,面对日新月异的技术变革,仍需进一步参考各国和地区的治理模式和优秀经验,结合技术发展和场景应用不断调整治理框架和治理措施,持续构建和完善适合国情的人工智能治理体系,促进人工智能的可持续发展。

(本文刊登于《中国信息安全》杂志2023年第8期)

声明:本文来自中国信息安全,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。