在AI大模型掀起的全球技术浪潮中,国产AI应用出海趋势显著增强,在全球市场具有广泛的渗透与影响。然而,面对国际市场,各国对于AI应用的监管情况各不相同。如美国和英国,采取较为宽松的监管策略,侧重于行业自律与分散监管,为AI创新提供相对自由的空间,欧盟则实施更为严格的监管模式,旨在确保AI系统的安全性和可靠性。
走出去智库(CGGT)特约法律专家、鸿鹄律师事务所(Bird & Bird)合伙人龚钰推出AI出海合规系列文章,将对各地区的AI合规法律进行整体的介绍,并对中国AI企业在出海的过程中,所关注的合规重点问题进行总结与分析,以期为AI企业出海提供关于合规管理的基本概览。
今天,走出去智库(CGGT)刊发系列文章之二《中欧人工智能立法比较:五大差异与合规需知》,供关注AI监管的读者参阅。
要点
1、欧盟和中国的人工智能治理都围绕着风险等级评估展开,并通过法律予以一定的限制以降低风险。然而,二者在风险类别的设定和分类方法上存在显著差异,这对组织制定合规策略产生了重大影响。
2、欧盟《人工智能法案》针对人工智能供应链中的不同主体规定了相应的义务,这些主体在供应链中扮演特定角色(即人工智能产品的设计和投放市场过程),并且可以存在于各个行业中(即行业中立)。尽管中国法规中也出现了一些类似的术语,但没有单一文件对这些角色进行集中描述。
3、欧盟与中国在行政单位之间及各单位内部的职权划分上存在显著差异。在实践中,这将影响组织如何理解并评估其与执法机构的关系。
正文
文/Hunter Dorwart, Harry Qu, James Gong, Tobias Bräutigam
鸿鹄律师事务所
2024 年 7 月 12 日,欧盟在其《欧盟官方公报》(Official Journal of the European Union, OJEU)上正式发布了欧盟《人工智能法案》[1](Artificial Intelligence Act),旨在全面规范欧人工智能系统在欧盟境内的设计、部署和使用。该法案的主要条款将于未来三年内逐步适用于各组织,具体举措取决于组织的角色、所提供服务的风险等级及其能力。与此同时,中国的监管机构也将注意力转向了人工智能,陆续发布了一系列法规和标准,旨在规范特定服务提供商的行为,以符合法律要求。其中,最重要的三项规定包括:《互联网信息服务算法推荐管理规定》 (2022) [2]、《互联网信息服务深度合成管理规定》(2023)[3]以及《生成式人工智能服务管理暂行办法》(2023)[4]。
欧盟和中国在人工智能治理框架方面的演变上存在诸多相似之处。例如,欧盟成员国在 2017-2020 年间陆续发布了全面的 “人工智能战略”,而与此同时,中国政府也承诺加强对人工智能的监管。两地的政策制定者都表达了类似的监管目标,涉及道德伦理、数据保护、安全和安保等主题。此外,布鲁塞尔与北京的人工智能监管都依托于现有法律框架,涵盖了包括个人信息处理在内的数据监管。尽管存在诸多相似之处,这两个治理框架之间仍有明显差异。本文将探讨其中的五大差异,以帮助企业理解这两个市场的具体要求,为合规做好充分准备。
1. 横向立法 Vs. 纵向立法
欧盟《人工智能法案》旨在为人工智能系统的开发、市场投放、服务投入及使用建立一个“统一的法律框架”,适用于整个欧盟。该法案补充了其他与数据相关的法律(包括源自欧盟委员会数字战略的法律),作为一个横向的监管框架,将各种参与方、组织和技术纳入其范围(见第2-3条)。该框架定义了一系列核心概念,包括“人工智能系统”(“基于机器的系统,设计目的是以不同的自主性水平运行,可能在部署后表现出适应性,并基于输入信息推断生成输出,这些输出可能是预测、建议或决策,进而影响物理或虚拟环境”);以及“通用人工智能”, 指能够开发并集成到其他服务中的基础模型(详见下文)。
在实践中,这意味着组织不仅需要评估其法律义务是否符合其他法规的要求,还需明确自身是否属于欧盟《人工智能法案》的规制范围、以何种方式纳入该范围(即其活动触发了哪些义务),以及因此需要采取哪些具体措施。当然,出海企业仍需要应对与其他欧盟法律项下交织重叠的复杂法律问题,如AI与数据保护、AI与知识产权、以及AI与纵向的行业立法(汽车、医疗等)。但是,欧盟《人工智能法案》已经构建了基本闭环的完整体系,并且将许多责任集中在这一部法律之下。
相比之下,中国采取了截然不同的纵向立法的方式。与通过单一的综合性法律进行规范不同,中国的政府部门采取了双管齐下的策略:(1)制定并实施行业特定的法规(如前述的算法推荐、深度合成以及生成式人工智能相关法规);(2)发布技术标准并启动人工智能治理试点项目,以积累最佳实践和执法经验。尽管现行法规存在一定重叠,但每项法规的适用范围都依赖于所提供服务的类型。因此,中国在法规层面尚未对“人工智能”提供权威的定义(尽管在某些技术标准中对此有所界定)。在实践中,关键在于某项服务是否以法规所涵盖的方式提供服务,而不是其是否符合“人工智能系统”的定义。截至本文写作时,我们已观察到中国正在考虑着手制定统一的人工智能法律,这一发展可能对我们目前的分析产生影响。
2. 不同的风险分类方案
欧盟和中国的人工智能治理都围绕着风险等级评估展开,并通过法律予以一定的限制以降低风险。然而,二者在风险类别的设定和分类方法上存在显著差异,这对组织制定合规策略产生了重大影响。
风险类别 | 解释 |
欧盟《人工智能法案》下的风险分类 欧盟《人工智能法案》的一个大特点是根据服务的风险类别分配不同的合规要求。该分类系统采用分层结构,风险级别越高,对应的限制也越严格。因此,确定人工智能系统所属风险类别及是否适用例外规定将成为合规过程中的一项重要挑战。尽管分类框架表面上与行业和技术无关,但某些技术(如生物识别、情感和面部识别)比其他技术受到更多关注。实际上,组织需要时间和具体指导来理解不同风险级别之间的的关系及其相互影响。 | |
被禁止的AI系统 | 第5条规定了八种被禁止的人工智能系统。这些系统的共同特点在于,它们使组织能够操控或预测性地控制人的社会和心理行为,从而以有害且不可接受的方式破坏欧盟的核心价值观并损害人们的利益。需要注意的是,某些例外情况和条件可能会排除特定的人工智能系统归入这一类别。成员国在授权人工智能系统的特定用途(如“实时”远程生物识别系统)时具有一定的灵活性,但并不具备为所有列出的技术颁发许可的权力(见下文与中国的对比)。 |
高风险AI系统 | 属于这一类别的人工智能系统在允许使用的前提下需遵守严格的合规义务。该类别主要涵盖那些对个人健康、安全或基本权利构成重大风险的技术,但这些风险尚不足以完全禁止。根据第6条,人工智能系统若符合以下任一条件,则被视为具有高风险: · 符合附录1中定义的高风险系统条件; · 或明确列在附录3中。 欧盟委员会将通过授权立法和指导文件进一步明确高风险人工智能系统的范围,并提供包括实际案例在内的详细实例列表。 |
具有特定透明义务的AI系统 | 第50条涵盖了特定的人工智能系统,包括那些在用户无法立即辨别其是否在与人工智能系统互动(如聊天机器人)或接收被人工智能系统操控的内容(如合成图像、音频、视频或其他深度伪造内容)时使用的系统。此外,生成或操控文本并用于向公众传递公共利益信息的人工智能系统也包含在内。需要注意的是,此类别与高风险系统并不互斥,二者可同时适用于同一人工智能系统。 |
中国人工智能法规下的风险分类 中国的人工智能措施同样基于风险等级构建合规要求,但其实施方式有所不同。现行的人工智能法规中,最严格的义务适用于特定服务,某些具备特殊能力的类别则受到更为严格的限制。目前,中国尚未建立统一的人工智能风险分类框架来强制执行特定法律义务。中国的政策文件在一般性地对人工智能风险进行分类时,通常以最佳实践、指导方针和行政战略文件的形式呈现(例如,科技部发布的《新一代人工智能伦理规范》[5])。 | |
被禁止的AI系统 | 中国尚未正式建立类似“禁止”技术清单的规定,尽管在实际操作中,某些技术可能因监管预期而受到限制。有专家建议建立负面许可制度,即制定需事先获得当局批准的被禁止人工智能系统清单。然而,政策制定者尚未在正式法规或立法中采纳这一建议。如果未来采纳此类制度,中国政府可能会在经过评估或安全备案后批准某些技术。 |
具有舆论属性和社会动员能力 | 尽管现行中国人工智能法规中未明确设立“高风险”类别,但确实识别出具有“公众舆论属性”或“社会动员能力”的服务,并对此类服务施加了特殊限制: · 公众舆论属性:指能够为公众意见表达提供平台或渠道的技术; · 社会动员能力:针对可以鼓励公众参与特定行动的服务。 这一概念源自2018年对新闻信息服务的监管,涉及论坛、博客、聊天室、短视频、直播网络、信息共享服务及应用程序。在人工智能应用的语境下,这些属性经常重合,可能涵盖聊天机器人、虚拟助手以及使用内容推荐算法的服务。新闻信息服务在中国受到严格的许可制度监管。这一概念在数字技术领域的延伸表明,尽管中国的人工智能法规在某些方面与欧盟《人工智能法案》相似(如对操控或扭曲信息的技术特别关注),但行政背景会显著影响风险分类的实际执行方式及其背后的原因。 |
3. 人工智能供应链中的不同主体
另一个关键区别在于受监管的对象及其受到监管的时机。欧盟《人工智能法案》针对人工智能供应链中的不同主体规定了相应的义务,这些主体在供应链中扮演特定角色(即人工智能产品的设计和投放市场过程),并且可以存在于各个行业中(即行业中立)。尽管中国法规中也出现了一些类似的术语,但没有单一文件对这些角色进行集中描述。相反,中国的规定通常将“服务提供者”作为监管对象,并将“提供服务”理解为可能涉及多个主体的行为;但在实际操作中,这些主体被解释为特定的实体类型。
主体 | 范围 | 主要义务 | 法律 根源 |
欧盟《人工智能法案》下的主体范围 | |||
(人工智能系统)提供者 | 开发人工智能系统或通用人工智能模型(或委托开发),并随后以其自身名称或商标将其投放市场或投入使用的实体。(第3条第(3)款) | 根据风险分类,欧盟《人工智能法案》将大部分合规义务归于提供者。对于高风险系统,这些义务包括:遵守技术和组织措施(详见下文)、实施人工智能质量管理、进行市场后监控、采取纠正措施、进行系统注册及合规性评估等。 | 第16-22条 |
(人工智能系统)部署者 | 在其授权下使用人工智能系统的实体(不包括个人的、非专业使用)。(第3条第(4)款) 注意:部署者可能因某些操作承担提供者的责任。 | 部署者需履行特定的部署、数据质量和监控义务。对于高风险系统,这些义务包括确保人工智能系统的实际应用符合其设计要求,并遵循提供者设定的操作规范(如输入数据控制、系统监控和事故报告等)。 | 第36条 |
(人工智能系统)进口商和分销商 | 进口商:位于欧盟,在市场上销售冠以欧盟以外实体名称或商标的人工智能系统。(第3条第(6)款)分销商:既非提供者亦非进口商,但其他方式销售人工智能系统。(第3条第(7)款) | 这些实体承担特殊的验证义务。 进口商:(针对高风险系统)必须核实是否完成了适当的合规性评估,检查提供者的技术文档,并确保CE标记、合规声明和使用说明到位。 分销商:(针对高风险系统)在将人工智能系统投放市场之前,需核实关键要素,包括CE标记、合规声明和使用说明。 | 第23-24 |
中国人工智能法规下的主要主体 | |||
算法推荐服务提供者 | 使用推荐算法提供基于互联网的信息服务包括内容的实体或个人。 | 提供者必须确保内容符合法律规定,明确标识算法生成的内容,建立内部管理系统,保护用户并避免产生有害影响。此外,提供者还需保护弱势群体,进行安全评估,并在必要时向网信办备案算法(如适用)。 | 《互联网信息服务算法推荐管理规定》 |
深度合成服务提供者和技术支持者 | 提供者:提供深度合成服务的实体或个人。 技术支持者:为深度合成服务提供技术支持的实体或个人。 | 提供者:必须确保内容合规、透明、用户保护并进行安全评估和算法备案(如适用)。 技术支持者:技术支持者负责保护个人信息,定期审查和验证合成算法机制,配合主管机构进行整改,进行安全评估和算法备案。 | 《互联网信息服务深度合成管理规定》 |
生成式人工智能服务提供者 | 利用生成式人工智能技术提供生成式人工智能服务的实体或个人(包括通过提供可编程接口或其他方式提供此类服务) | 生成式人工智能服务提供者必须履行多项义务以保障用户安全,包括确保内容合规、保持透明性、使用合法的数据集、预防歧视、保护隐私并进行安全评估。此外,提供者还需指导用户合理使用,监控人工智能技术的应用,标识人工智能生成内容,并向主管部门报告不合规情况,以确保人工智能服务的责任性和安全性。 | 《生成式人工智能服务管理暂行办法》 |
值得注意的是,欧盟《人工智能法案》对通用人工智能模型的处理方式具有独特之处。法案第3条第(63)款将通用人工智能模型定义为:“一种人工智能模型(包括通过大规模自监督训练大量数据所生成的模型),展现出显著的普适性,不论其投放市场的方式如何,能够胜任多种不同任务,并可集成到各种下游系统或应用中。”通用人工智能模型本身并非一个“人工智能系统”,而是更基础的存在。《人工智能法案》对这些模型设立了特殊规则(包括对下游使用、数据训练的透明度、技术文档和数据安全测试的相关规定),这些内容在法案起草过程中是主要的谈判焦点之一。
在中国,监管机构也关注通用人工智能模型的开发和应用,尽管未明确使用此术语。目前,相关规定的具体性不如欧盟明确,主要通过非强制性的技术标准进行监管。例如,标准TC260-003《生成式人工智能服务安全基本要求》对训练数据的使用、数据处理方式、预期的人类监督水平,以及评估和记录输出数据准确性和质量的指标提出了具体要求。尽管人工智能法规中未明确规定这些义务,但许多法规要求在适用时遵守相关标准。
4. 两个司法辖区合规义务的范围不同
二者在适用于组织的合规义务类型上也存在显著差异。首先,欧盟《人工智能法案》具有域外效力,即当境外的人工智能系统提供者在欧盟市场上投放或使用人工智能系统或通用人工智能模型时,或当境外提供者或部署者的人工智能系统产生的输出在欧盟境内被使用时,该法案同样适用。相比之下,在中国,只有进入市场的服务才会受到监管,未进入市场的境外人工智能系统或其输出并不在中国现行法规的监管范围内。
除了适用范围外,主要差异还体现在服务的风险分类及组织在提供该服务时所扮演的角色。欧盟《人工智能法案》下的合规要求较为复杂,并通过实施细则和委托法案进一步细化。例如,高风险系统在其生命周期内必须满足一系列特定的技术和组织措施,包括:
· 风险管理:实施识别、分析和缓解风险的策略;
· 数据治理:符合数据训练和模型测试的标准;
· 技术文档和记录保存:证明合规性、可追溯性并便于市场后监控;
· 透明度:设计人工智能系统以便于理解输出,并提供使用说明;
· 准确性、稳健性和网络安全:确保系统的准确性、安全性和韧性;
· 人类监督:根据人工智能系统的风险级别、自主性和使用环境,确保人类参与。
这些要求构成了高风险系统在欧盟市场上的合规框架,涉及到系统的全生命周期管理,以确保技术和运营的稳健性及法律合规性。
值得注意的是,中国的要求也涉及类似的主题,并使用相似的语言进行规范。例如,中国人工智能治理的重要组成部分包括实施全面的风险管理系统、记录保存以及向下游使用者提供技术指导。此外,欧盟《人工智能法案》第50条的许多要求在中国的人工智能法规中已有所体现(例如对人工智能生成内容打水印的透明度要求、标记含有深度伪造内容,并向公众披露服务正在使用人工智能)。虽然在文本上二者存在一些相似之处,但在执行和实施上的重叠程度仍有待观察。实际上,二者监管机构的优先事项可能存在根本差异,以至于比较更多落脚于学术层面。不过,以下关键结构性差异值得关注:
a. 符合性评估:将欧盟《人工智能法案》的要求纳入相关的欧盟产品安全法下的符合性评估程序,这是目前中国未见的独特特征。虽然合规评估是中国测试和认证的常规组成部分,但其在人工智能治理中的作用较为有限,主要集中于其他形式的监管审查(如算法备案和安全评估)。符合性评估作为一种概念已在地方性法规中提出,例如上海的人工智能条例。[6]
b. 算法备案:在中国,符合特定标准的服务必须将其算法向主管机关备案,备案内容需包括备案主体、算法及其相关产品/服务的基本信息。监管机构还专门创建了在线门户用于备案。尽管欧盟《人工智能法案》也对人工智能系统提出某些注册要求,但尚未设立中央数据库以便于此类备案。
c. 安全评估:中国的另一项特色是要求服务提供者进行安全评估,尤其针对具有公共舆论属性和社会动员能力的算法。安全评估涵盖多方面内容,如风险防范、用户保护、内容审核、模型安全和数据安全,且服务提供者必须在备案前完成自评估。欧盟的监管机构虽然会审核合规情况、进行调查并查看合规文件,但未要求服务推出前进行详尽的安全评估。值得一提的是,欧盟《人工智能法案》要求的合规性评估是一种事前评估,目的在于产品安全,涉及第三方认证机构的认证而非监管机构的许可。此外,欧盟《人工智能法案》要求在某些条件下进行基本风险评估,这在范围和实质内容上与中国的自我评估程序有所不同(尽管在实践中会涉及相似主题)。
5. 执法结构体现行政和法律环境的差异
欧盟《人工智能法案》将执法权下放至各成员国指定的国家主管当局,负责监督法案的实施,包括高风险人工智能系统的义务和禁令。目前,尚未明确哪些行政机构将被指定为主管当局,但许多数据保护监管机构已主张应将《人工智能法案》纳入其管辖范围。
为协调各成员国的执法工作,人工智能办公室将发挥支持作用,对所有27个成员国进行集中监督,并就关键问题提供指导和专业知识。该办公室将协助开展联合调查、简化国家主管当局之间的沟通,并创建一个治理体系,包括在欧盟层面建立技术咨询机构,并为独立专家科学小组提供支持。此外,人工智能办公室还负责监督执行法案中关于通用人工智能模型的相关条款,确保在整个欧盟内对这些模型的执法保持一致。最后,人工智能办公室将协助各主管当局和其他中央机构,发布自愿行为准则,支持起草技术标准及指南、实施和授权法案,以及人工智能监管沙盒的建立。
在中国,多个行政机构参与人工智能的执法工作,涵盖不同的部委和部门,其核心职责通常按法律领域和行业划分。这些政府机构在人工智能的关键问题上经常协同合作,包括共同起草和通过人工智能相关的法规与指南。例如,尽管国家互联网信息办公室是中国主要的人工智能监管机构,但工业和信息化部也在监管电信、物联网和移动应用行业的人工智能法规制定中发挥了关键作用。此外,中国政府利用以往的监管经验来应对人工智能带来的新风险。例如,网信办在人工智能的安全和数据保护监管中发挥主导作用。
然而,欧盟与中国在行政单位之间及各单位内部的职权划分上存在显著差异。在实践中,这将影响组织如何理解并评估其与执法机构的关系。在欧盟《人工智能法案》框架下,各成员国需自行指定执法当局,且可以基于自身需求选择具体的执法机构。因此,不同成员国可能会指定不同的主管机构,导致组织需根据所在国的不同,适应相应的监管结构。在中国,各部委在省、市级设有地方办事处,地方机构负责辖区内的具体监管。这意味着无论组织在中国何地运营,都需应对多个对其服务具有管辖权的部委。此外,中国的中央监管由位于北京的中央级部委办公室主导,这些办公室制定统一的程序管理规则和政策,要求地方办事处严格执行。这与欧盟的情况相反,在欧盟,中央级机构主要发挥支持性作用,负责发布指导意见,而非直接解释和执行《人工智能法案》(除某些特定条款外)。
随着人工智能治理法规在这两个司法辖区的逐步实施,未来将出现更多具体的跨境合规经验,有助于组织更好地适应不同的监管环境。
注释:
1. Artificial Intelligence Act
European Parliament legislative resolution of 13 March 2024 on the proposal for a
regulation of the European Parliament and of the Council on laying down harmonised
rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union
Legislative Acts (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)), available at: https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_EN.pdf
2. 《互联网信息服务算法推荐管理规定》, available at: https://www.gov.cn/zhengce/zhengceku/2022-01/04/content_5666429.htm
3. 《互联网信息服务深度合成管理规定》, available at: https://www.gov.cn/zhengce/zhengceku/2022-12/12/content_5731431.htm
4. 《生成式人工智能服务管理暂行办法》, available at: https://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm
5. 《新一代人工智能管理规范》,available at: https://www.most.gov.cn/kjbgz/202109/t20210926_177063.html
6. 《上海市促进人工智能产业发展条例》,available at: https://www.shanghai.gov.cn/hqcyfz2/20230627/3a1fcfeff9234e8e9e6623eb12b49522.html
▪系列文章之一:AI监管|AI新纪元:欧盟《人工智能法》解读
专家简介
龚钰
走出去智库(CGGT)特约法律专家
鸿鹄律师事务所(Bird & Bird)合伙人
龚律师领导鸿鹄律师事务所中国的数据保护和网络安全团队。他在数据保护、网络安全以及科技、媒体、电信相关的监管及交易方面经验非常丰富。他曾为来自多个行业的中国和跨国客户提供境内外法律服务,擅长解决行业相关的复杂法律问题。龚律师的观点经常被媒体引用,并且作为业内认可的作者发表TMT及数据相关文章。
龚律师毕业于曼彻斯特大学,并获得法学学士学位。他拥有中华人民共和国法律职业资格和美国纽约州律师执业资格。他还是国际隐私专业人员协会成员,持有CIPP/E、CIPP/US 和CIPM证书。
业界荣誉:
中国《商法》:
2023-24法律精英:律界精锐
律师新星,2023
法律500强:
中国:数据保护(外资所)新生代合伙人,2024
中国:TMT(外资所)新生代合伙人,2022,2024
中国:生命科学(外资所)高度推荐律师,2024
中国:公司法及并购(外资所)高度推荐律师,2024
2023中国法律大奖:提名年度新生代合伙人、TMT年度律师
《亚洲法律杂志》(ALB):中国十五佳TMT律师,2022
Lexology CMA:TMT - 亚太地区影响力律师(2024Q1、2023 Q1Q2、2022 Q2Q4)
ALM Law.com: 提名年度数据隐私律师, 2024
执业经验:
为蔚来汽车、小鹏汽车、吉利汽车、北汽福田、比亚迪、石基信息、菜鸟网络、华为、千寻位置、迈瑞医疗、健世科技、小天才、Vivo、科大讯飞、中银国际、中国农业银行、美的、蚂蚁金服等众多企业就数据合规相关问题提供法律服务。
声明:本文来自走出去智库,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。