导言
2024年8月1日,欧盟《人工智能法》(下称“AI法”)正式生效。该法作为全球第一部人工智能领域综合性的专门法律,可预见将对全球人工智能产业链产生深远影响。本文在对AI法序言及条文理解的基础上,梳理分析了欧盟人工智能治理的整体框架,并结合当前生成式人工智能模型行业生态,围绕相关责任主体界定及责任义务分配进行了研究,梳理了欧盟AI法下模型提供者、系统提供者、系统部署者等人工智能链条上相关法律角色的定义及界定逻辑,分析了AI法下各关键法律主体角色合规义务设置和分配机制的特点。
1. 欧盟《人工智能法》治理框架
总体上,AI法在适用范围、人工智能系统风险分级管理、通用人工智能模型管理、合规责任分配及上下游协同、主管机构设置、执法与处罚等方面,为整个人工智能产业链上相关方提供了一个合规义务框架,为给AI法下法律责任主体设置及相应责任义务分配分析提供全局性的直观认知,本文在梳理分析AI法序言及正文条款、附件基础上,将AI法下人工智能核心治理框架(主管机构设置、执法及处罚外)整理为下图1:
图的左半区自下而上展示从模型、到系统及具体应用的人工智能价值链生态,以及各层内部的受监管范围。其中,关于AI法下“受监管范围”,模型层仅针对“通用人工智能模型”设置明确合规义务,而通用人工智能模型则进一步就是否涉及系统性风险进行区分(主要体现在右侧合规义务范围上,关于通用人工智能模型概念之内涵及外延,以及其与大模型、生成式人工智能常见概念的关联可见本文附2部分分析);系统层则按照风险程度,将人工智能系统分为禁止性、高风险和有特定透明度义务和无风险四类,其中,有特定透明度义务AI系统与高风险AI系统之间不是互斥的关系,可能存在交叉,故在图中统一画入黄色“受监管”框内。AI系统维度各类风险内容具体指向可参考文末附1:《AI系统风险等级划分》。
图的右半区为价值链各层可能涉及(对应)的重点参与方(注:为本文目的,图上未覆盖系统/模型提供者的 “授权代表”角色),以及AI法为主要参与方设定的法律角色及其主要合规义务。
图1:欧盟《人工智能法》治理框架
2.欧盟AI法下主体角色设置及其识别
2.1行业现状
随着行业生态的发展,人工智能产业,尤其是生成式人工智能服务,其上下游参与主体日益复杂化,如我们整理的大模型应用生态视图所展示(图2),一款基于大语言模型的智能体/AI应用的服务链路从下至上涉及的参与方可能包括:基础模型推理能力/定制化模型能力API接口提供者、智能体开发平台(通常提供模型推理接口、外部插件、以及自定义知识库等定制/开发工具能力供开发者自行定义、开发AI系统/产品)、第三方插件/工具提供方、智能体(agent)开发者、智能体服务分发平台(平台型应用)等。在这样的模式下,从底层基础模型开始,链条中的每个环节参与者都不同程度参与或影响了终端服务的提供,可能成为“生成式人工智能服务提供者”,但任一单一上游主体和下游主体均无法全面了解、也无法完全控制整个 AI 系统。梳理出可以分配责任的主体类型并合理设置和分配责任是开展人工智能治理的关键,也是推动行业健康有序发展的现实需要。
图2:大模型应用生态视图
2.2 欧盟AI法下具体角色设置
如本文开头图1所展示,欧盟AI法规定了“通用人工智能模型提供者”、“系统提供者”、“系统进口者”、“系统分销者”、“系统部署者”、“受影响者”等不同层次角色,对人工智能服务生态下参与方的法律地位作了较为精细的界定。本文将结合AI法起草情况,逐一介绍相关角色定义及核心判断要件,并针对API接口这种人工智能服务提供形式,尝试结合具体场景进行欧盟人工智能法下价值链上下游角色的识别分析。
其中,“受影响者(affected persons)”在AI法下无专门条款进行定义,综合AI相关序言段落及条款上下文判断,指受人工智能系统影响的任何自然人或群体,由于其在AI法下主要作为受保护角色存在,非AI法下责任主体,本文不对其展开具体分析。
(1)通用人工智能模型提供者(GPAI Model Provider)
针对通用人工智能模型提供者角色,该概念核心在于明确何为 “提供”行为(通用人工智能模型的内涵及外延可参见文末附2,此处不作赘述)。根据AI法定义,通用人工智能模型提供者是指【开发或者委托开发模型】、【以自己的名称或者商标】,将【通用人工智能模型】【投入欧盟市场】的主体;其中,投入欧盟市场,指首次在欧盟市场上商业性提供GPAI模型用于分销或使用(无论是付费或免费)。
结合AI法为模型提供者所设置义务(见前文图1最右列),本文理解该定义下所隐含“提供者角色”的内核为:【以自身的名义】对外提供模型,且由于模型系其开发or委托开发,故其通常决定模型的预期用途、对模型的开发过程有着最高的参与/控制程度、对模型的基本情况及开发信息掌握最充分的信息。
(2)人工智能系统提供者(AI System Provider)
人工智能系统提供者和GPAI 模型提供者在“提供者”的界定上基本一致,即:指【开发或者委托开发AI系统】、【以自己的名称或者商标】,将【AI系统】【投入欧盟市场】或【在欧盟投入使用】的主体;其中,
• “投放欧盟市场”指:首次进入欧盟市场,即在欧盟市场上商业性提供AI系统用于分销或使用(无论是付费或免费)。
• “在欧盟投入使用”是指首次直接供部署者或供提供者自身在欧盟内按照系统预期目的使用。
与GPAI模型提供者类似,该定义下所隐含的“提供者角色”的内核为:【以自身的名义】对外提供系统,且由于系统系其开发or委托开发,故其决定了系统的预期用途、对系统的开发过程有着最高的参与/控制程度、对系统的机制机理掌握最充分的信息。也正因为如此,系统提供者也是AI法下承担最主要责任的主体。
AI法下人工智能系统提供者的角色特定情况下还将在实体间发生“转移”:AI法第25条列举了涉高风险AI系统的情况下,如发生如下情形(“系统提供者角色转移情形”),即便某主体实质上仅为部署者/进口者/分销者,原本不具备提供者角色实质内核特征,将被视为高风险系统提供者、承担履行AI法下高风险系统提供者相关义务(但第50条下透明度义务(如适用)不在转移之列),而原始系统提供者则仅需为其履行高风险AI系统提供者义务提供必要的信息和协助:
(a) 在已投放市场或投入服务的高风险人工智能系统上冠以自己的名称或商标,但不妨碍以其他方式分配义务的合同安排;
(b) 对已投放市场或已投入服务的高风险人工智能系统进行实质性修改,使其仍属于第 6条所指的高风险人工智能系统;其中,AI法所定义的“实质性修改”指的是AI系统在投放市场或投入使用后发生的变更,该变更在提供者最初的合规符合性评估中未被预见或计划,且可能会影响AI系统是否符合第三章第二节中设定的要求,或者导致其原定用途发生变化(见AI法第3条第(23)项以及序言第(128)段)。
(c) 对未被列为高风险并已投放市场或投入服务的人工智能系统(包括通用人工智能系统)的预期目的进行修改,使有关人工智能系统根据第 6 条成为高风险人工智能系统。
(d)此外,产品制造者如以自己的名称或商标将人工智能系统与其产品一同投入欧盟市场或投入使用,当人工智能系统涉及特定高风险情形(如作为安全组件)时将被视为系统提供者履行相应提供者义务。
(3)进口者(Importor)和分销者(Distributor)
• 根据AI法第3条第(6)项,“进口者”指将带有欧盟境外自然人或法人名称或商标的人工智能系统首次投放欧盟市场以供销售或使用(无论是否收费)的欧盟境内的自然人或法人。
• 根据AI法第3条第(7)项,“分销者”指系统提供者和进口者之外,在欧盟市场上商业性质提供三方AI系统(即带第三方名称或商标的AI系统)、用于销售或使用(无论是否收费)的自然人或法人。
该两个角色均有 “提供”行为,与系统提供者概念相比,核心差别在于这二者提供的是冠以第三方名义的AI系统,且从AI法对二者义务的规定(第23条和第24条)看,其“提供”过程为AI系统的流转环节,主要涉及对AI系统的“存储”或“运输”,故而仅作为系统提供方和使用方(即下方定义的“部署者”)的中间方,“照原样”向下游部署者提供系统,不实际参与系统的开发、部署和使用,这也是进口者/分销者角色的实质内核。一旦其有了开发、部署/使用动作,或其以自身名义提供系统,其角色即可能被相应提供者或部署者概念吸收。
另从二者定义看,二者之间的差别则在于是否首次引入境外系统,涉境外系统的情况下,欧盟境内主体事实上可同时扮演进口者和分销者角色。界定是否 “首次”的原因主要是从行政管理角度锚定一个主体来履行“进口”有关义务。
(4)部署者(Deployer)
根据AI法第3条第(4)项,AI法将“部署者”定义为“任何在其权限下使用人工智能系统的自然人、法人、公共机构、机构或其他组织,但个人非职业活动中使用人工智能系统的情况除外”。
尽管从该角色本身用词以及AI法第26条、27条实际为其设置的义务看,部署者可能不同程度地执行了部署动作以及可能对系统运行过程(包括系统数据输入、日志等)保有一定控制或影响,但不应以某主体是否实际涉及此类动作以及具备此类能力作为判断标准。一方面,从AI法相关部署者义务条款仅要求在自身控制限度内履行有关人工监督、日志留存等义务,但本身未排除部署者本身完全不控制系统的可能性。事实上,部署者对系统控制程度受系统提供方提供系统的方式以及部署者自身的专业能力所影响。另一方面,从该角色定义看,AI法下“部署者”概念指向的是系统的“使用”(AI法最初草案中关于这一角色的措辞甚至就是“User”,最近的版本才改为Deployer),且结合序言第93段(具体摘录并翻译如下),设置部署者角色和义务的出发点在于该角色对系统具体使用环节风险的控制能力,因此,本文认为该角色的内核在于是否【决定和控制系统投入具体使用时的使用目的和使用方式】。
“虽然与AI系统相关的风险可能源于这些系统的设计方式,但风险同样也可能源于这些AI系统的使用方式。高风险人工智能系统的部署者在确保基本权利得到保护方面起着至关重要的作用,是对提供者在开发人工智能系统时所承担义务的补充。部署者最了解高风险人工智能系统将如何具体使用,因此能够识别开发阶段未预见的潜在重大风险,这是因为部署者更准确地了解使用环境、可能受影响的人群或群体,包括弱势群体。”
此外,AI法未明确提及“最终用户”概念,即可能与人工智能系统进行交互的个人。本文认为:最终用户通常符合部署者定义内核,但视乎其使用目的可被豁免适用。以AI绘画工具为例,诸如使用个人版AI绘画工具进行非商业用途绘画创作的个人符合部署者的定义内核,但如该个人是在“非专业活动中使用AI系统”,则可适用“部署者”定义下个人非专业使用的豁免;但如个人为专业目的使用该AI系统,则可能构成部署者,进而需要遵守和履行AI法下要求及义务。
尽管当前关于通用人工智能的主流应用似乎为聊天机器人、创意图像文本生成工具等,因而“使用者”可能看似更多指向影响力相对较小的个人,并且由于涉及对使用者信息输入内容的保护诉求,很多时候 “使用者”被作为受保护对象而非责任承担主体存在。事实上,通用人工智能可应用场景并不局限于面向个人消费者的聊天交互应用,其可能被广泛应用于各种专业领域、商业场景,将使用者作为责任主体之一并课以适当义务的立法设计将更全面和科学防范AI使用环节的风险。
2.3 API方式提供模型或系统时的主体角色识别
出于模型提供商在现有竞争环境中对商业秘密的保护,以及许多应用方可能难以承担模型推理过程中巨大的计算资源和维护成本,GPAI Models以及基于GPAI Models的GPAI系统通常通过API的形式层层向下游提供。如本文图1所展示,AI法序言及附件中提及,模型和AI系统的提供方式中均包括API接口(如本文图1所展示),人工智能系统本身亦可以被集成至其他人工智能系统之中。因此,AI法的实务适用中必然需要回答如下问题:
(1)API接口之下提供的是GPAI Model,还是集成了GPAI Model的AI系统,即AI法所称通用人工智能系统(GPAI System);
(2)构成GPAI System的API接口的接入方在AI法下的角色、以及与上游GPAI System提供方之间责任边界。
本部分拟结合2.2中关于具体角色内核的分析、基于对AI法下整体治理思路的理解,结合具体场景假设,对以上问题给出初步的判断思路。
(1)模型提供 vs 系统提供
根据AI法序言第(97)段,AI模型是AI系统的重要组成部分,但模型本身并不构成AI系统,人工智能模型需要增加更多组件,例如用户界面,才能成为人工智能系统; 那么是否可以认为按照“由于模型厂商提供时的是API接口、没有提供与用户的交互界面进而推定它尚不构成AI系统、仅提供了模型、因此仅需承担模型提供者责任”这样的逻辑进行判断?
本文认为,不能以是否具备用户界面区分一个API接口属于模型的提供、还是系统的提供。一方面,“用户界面”本身亦需作广义的理解,不可狭义理解为普通最终用户所接触的可视化交互界面。现实中很多后端系统并不提供最终用户交互界面,仅提供与前端系统交互的接口,但不妨碍它们构成系统。另一方面,仅以是否有用户界面为标准,可能减损AI法关于角色和责任划分逻辑下的治理效果:如果API接口实际在模型基础推理之外封装了其他足以使其成为系统的模块,且支持/预设的使用场景涉及高风险场景,此时仅因其为API接口方式提供、没有用户界面即主张其不构成系统提供者,仅作为GPAI模型提供者角色,按照AI法仅需履行GPAI Model提供者义务显然不合理,亦无法满足对下游集成方的配合和协助要求。
合理的判断逻辑应当为:以API接口实际封装的仅为GPAI模型基本推理能力,还是具备在基本推理能力之外的其他可构成AI法下人工智能系统的功能设计(如在基本推理能力之外的用户管理/权限控制/数据管理/内容标识等能力、具有外部系统交互和组件依赖等)。若为后者,且该API下所依赖的GPAI模型亦是该API提供方自身研发/委托研发的,那么该API提供方就该API接口应当同时构成通用人工智能模型提供者和通用人工智能系统提供者的双重角色。此时,若该 “通用人工智能系统”本身拟支持部署者直接用于至少一种根据本条例被归类为高风险的目的,则该系统构成高风险AI系统(基于法案第75条第2款表述反推),提供方需同时履行GPAI Model提供者、高风险AI系统提供者的合规义务以及作为特定的透明度义务;如不涉及,则仅需履行GPAI模型提供者合规义务以及作为GPAI系统提供者的透明度义务。至于其下游方角色,则视其接入场景另行判断,可参考下方第(2)节。
(2)API接入方的角色及责任范围
延续上文逻辑,当上游所提供通用人工智能相关API接口本身输出的不仅仅是模型推理能力,本身构成一个GPAI系统,此时,下游API接入方在AI法下的法律角色责任范围如何判断?以下尝试以一款集成大语言模型能力的联网搜索插件为例分场景进行AI法下法律角色识别:
B公司通过API接口形式输出最基本的模型推理能力,仅基于接口输入信息做推理结果响应,推理过程为无状态服务;A公司为一家搜索引擎厂商,其集成B公司大语言模型推理能力API输出一款联网搜索插件,基于大模型推理能力帮助解析用户复杂查询的输入意图和提取关键词,基于搜索召回生成直接答案或内容摘要等,从而增强搜索互动性和精确性,提升用户体验,该插件支持API方式供其他开发者调用;C公司为该API的调用方。
结合(1)部分分析,此时B仅为GAPI Model提供者,履行AI法下第51条至56条下模型提供者义务;A所推出的联网搜索插件API本身已构成一款GPAI System,其就该接口的对外提供构成GPAI System的系统提供方,同时我们认为该搜索插件系统意图使用场景并不落入 “高风险”领域,该GPAI System不构成高风险人工智能系统;但由于其具备内容生成能力,因此, A仅需作为有特殊透明度风险AI系统提供方履行AI法第50条下相关透明度义务。对于【插件集成方C】,视其对该接口的使用情况,其角色可能有所不同:
○ 假定C运营一款基于某开源大语言模型的AI聊天应用,基于用户输入生成响应内容;其集成前述该搜索插件以为其应用的问答体验提供联网能力,识别用户每次请求意图后决定是否调用该插件并基于该该插件返回结果生成融合联网搜索结果的响应答复。此时, C自行决定是否以及何时向该插件输入请求、使用该插件返回数据并进行加工后向其自身用户输出,其行为本质为对该插件系统的使用,故就A所提供搜索插件,C的角色为该系统的部署者。C自有AI聊天应用本身亦构成法案下GPAI System(但同上文,我们判断不构成AI法下高风险AI系统),C为该系统的提供者,需履行50条下合规义务。事实上,
○ 假定C运营一款内容平台应用,其应用集成该插件,在应用内增加“AI搜”功能入口,用户输入搜索请求后,请求内容将直接被应用按照联网搜索插件接口规范向插件发起请求,插件响应结果则直接作为搜索结果向用户呈现。除在其应用内为该接口提供交互界面外,C未对该搜索插件API接口做任何调整。此时:
Ø如C明确披露该“AI搜”功能由A提供,则C仅为该联网搜索插件系统的分销者的角色,A为系统提供者,C的最终用户为该系统的部署者(但如为个人消费者用户,不受法案下义务约束);
Ø如其以自身名义对外提供该“AI搜”功能,即俗称的套壳使用,此时,其集成该联网插件的“AI搜”系统构成通用人工智能系统(但非高风险,涉及特定透明度义务),其需就该系统的提供自行对外(包括监管及用户)承担系统提供者义务;此时,尽管A的系统提供者责任不因此发生改变,但其对C无履行除对下游部署者的信息披露外的其他AI法下强制性合规义务(其与C的合同内有相关责任分配条款的除外)。尽管该“AI搜”能力实质由A提供,C未能参与其开发、设计, C主动选择以自身名义对外提供功能的行为决定了其需承担A未能按照协议承诺保证插件系统的合规性时AI法下合规风险。(如该插件系统本身为高风险AI系统,则可按照AI法25条,尽管C因触发系统提供者责任转移情形,同样要承担该联网搜索插件系统提供者责任,但此时按照AI法25条第2款,A作为原始系统提供方,将在合同义务之外,有法定的配合以及协助C合规的义务。)
• 此外,如该插件上架三方插件平台供开发者免费/付费调用,则此时三方插件平台可能构成AI法下的“分销者”或“进口者”。
3.AI法下责任/义务的设定及分配机制
参与主体之间的合规义务/责任的分配是人工智能治理的核心。关于参与主体之间的责任/义务的设定与分配,实际上存在两种有待分配的责任:一种是行政意义上的责任与义务,另一种是关于权利损害救济方面的责任承担及分配问题。AI法主要解决的是前者,本文的分析亦主要围绕行政意义上责任与义务分配问题展开。
纵观AI法下为每个角色设定的合规义务(参考图1右侧列举或AI法第三章),可发现其在责任分配上具有如下两方面特点:
3.1义务的设置:基于风险
AI法从拟议之初即强调基于风险的治理范式,以风险为起点,进行风险等级分类,并强调不同风险等级下合规义务/责任的合比例性和平衡性。
(1) 规制对象范围:按领域场景分级管制和有限清单式列举
1)系统层:
从AI系统的应用场景/用途出发区分“不可接受风险”“高风险”等进行分级分类治理。具体而言:
• 禁止具有不可接受风险的人工智能系统投入市场或投入服务或使用;
• 高风险人工智能系统需满足涵盖事前、事中和事后的全生命周期监管体系,价值链全链路主体均需承担不同程度义务。
• 涉及与自然人直接互动、生成合成、情感识别和生物特征分类等特定人工智能系统的提供者、部署者,无论是否落入高风险,均应履行特定的透明度义务;
• 以上情形之外的、轻微风险的人工智能系统的投入市场、投入服务/使用不受限制;
对于具体风险类型下所涉场景类型做了十分明确的清单式列举,参考文末附1整理可知,仅有限场景的AI系统将被禁止or纳入强监管;同时,尽管AI法也保留了定期复核和调整附件3高风险系统清单范围的权利,以确保AI法能适应技术和行业的发展,但该等调整需要经过正式立法过程、且仅限于附件3所列。
2)模型层
尽管AI法最终文本增加了对模型层(GPAI Models的)严格监管,但整体仍坚持并延续了基于风险的原则、识别不同风险影响程度设置相应监管要求:
• 模型层仅GPAI Models需要进行模型层的上层监管。传统AI模型的开发基于特定目的和任务(而非通用任务),往往是与AI系统作为一个整体去设计、开发和使用,将其作为AI系统的一部分、以系统的投入市场和投入使用为抓手即可控制相关风险,故而AI法未就此类模型专门设置监管;GPAI Model由于其通用性,并不针对特定的应用场景和任务,其开发和提供时并不具有具体的风险,但如AI法序言第(101)段所述,以ChatGPT为代表的GPAIModels由于自身性能的强大和不可解释性,以及基于其广泛任务执行能力下可被应用于大量下游应用,在价值链中具备基础性地位,一旦模型存在内生安全问题将直接被放大、传导和波及到广泛下游应用场景,产生系统性风险和影响,因而AI法将其作为不同于人工智能系统的监管对象,规定了相应的风险防控要求。
• 按照是否具备系统性风险,进一步区分为是否存在系统性风险设置不同梯度合规义务。当某一GPAI Model基于适当的技术工具和方法论(包括指标和基准)进行评估、或经委员会综合考虑AI法附件十三设定的考虑因素被认为其具有高影响能力,该GPAI Model将被归类为“具有系统性风险的GPAI Model”,此时,其提供者需要在GPAI Model本身通用义务(包括起草保存技术留档、为下游提供技术信息、制定遵守欧盟《数字单一市场版权指令》的政策并识别版权人作出的权利保留、发布模型训练内容摘要,详见AI法第53条)之外,进一步履行模型评估、评估和减轻可能的系统风险、及时跟踪记录严重事件、确保足够的网络安全保护水平等义务。此外,一旦相关技术指标或者基准被触发,GPAI Model提供者需毫无迟延的主动通知委员会,即便其认为其模型符合相关基准和指标但由于其具体特点,该通用人工智能模型不存在系统风险。
此外,如图1所示,模型层的监管与风险分级的人工智能系统是不同位阶的概念。模型层(模型提供者)的合规义务与系统层合规义务互相独立、各成体系,模型被集成到各类下游应用场景中后,才落入AI法的风险分级体系、进而判断是否涉及相应风险类型下AI系统的合规义务及义务主体(但如模型提供者未参与下游AI系统的提供、部署、销售等,则不涉及系统层相应合规义务)。其中,对于集成通用人工智能模型的通用人工智能系统,并不因应用对通用人工智能能力的使用而一概拔高风险等级,相关系统的风险的判断需回归具体的应用场景,即:无论是否基于通用人工智能模型,系统层仍基于最终所集成系统所预设和支持的具体用途和场景进行风险等级判断。观察AI法下对高风险和不可接受风险情形的列举(参考本文附录部分整理),以及AI法草案历史版本文本,当前通用人工智能最常见的应用场景和形式,诸如聊天机器人、文本图像生成/合成应用等,通常不会落入不可接受的风险和高风险场景,不涉及高风险人工智能系统合规义务,仅需满足50条针对此类系统的透明度义务。
(2)义务的合比例性和平衡性:大量豁免例外规则的设计
对人工智能的监管越多越不容易创新,AI法在不同的分类框架下进行差异化规制、使得实际纳入AI法下强监管的系统范围已相对有限的基础上,在各类别进一步针对各类规则设置精细化的适用例外。
1)高风险用途范围的系统的例外:
根据AI法第6条第3款,如满足如下情形可视为不构成对自然人的健康、安全或基本权利造成显著风险,包括不实质性影响决策结果,进而不被视为高风险(不过如果AI系统执行自然人的画像分析,无论如何它都应被视为高风险):
• (a) AI系统旨在执行狭窄的程序任务;
• (b) AI系统旨在改善之前完成的人类活动的结果;
• (c) AI系统旨在检测决策模式或与之前的决策模式的偏差,且不旨在替代或影响之前完成的人类评估,没有适当的人类审查;
• (d) AI系统旨在执行对AI法附件三中列出的用例目的有关的评估的准备任务。
2)提供者/部署者特定类型系统透明度义务适用的例外
• 与中国深度合成管理规定要求相类似,对于包括通用目的人工智能系统在内的生成合成音频、图像、视频或文本内容的人工智能系统,AI法要求系统提供者确保人工智能系统的输出以机器可读的格式进行标识,并且可检测其系人为生成或操纵。对于部署者,则要求在其生成或操纵构成深度伪造(即人工生成但容易被误认为真实存在)的图像、音频或视频内容时,应披露该内容是人为生成或操纵的。
• 但AI法考虑生成合成内容的特定应用场景,分别对系统提供者和部署者前述义务设置了适用例外,合理降低了参与主体的合规成本:
○ 如果人工智能系统执行的为编辑提供辅助功能,或没有实质性地改变部署者提供的输入数据或其语义,或经法律授权用于侦查、预防、调查和起诉刑事犯罪,则系统提供者无需为其配备人为AI生成的标识能力。
○ 如果部署者生成或操纵内容构成明显具有艺术性、创造性、讽刺性、虚构类比的作品或节目的一部分,部署者的透明度义务仅限于以不妨碍作品展示或欣赏的适当方式披露此类生成或篡改存在;如果当法律授权使用该等生成内容用以侦测、预防、调查和起诉犯罪行为,或者当AI生成的内容经过人工审核或编辑控制,并且有自然人或法人对内容的发布承担编辑责任时,部署者则无需披露这些内容存在生成或篡改情况。
3)开源模型信息披露的例外
免费且开源、并且不构成有系统风险GPAI Models的模型提供者,如在其开源许可下,公众可获取、使用、修改和分发模型,包括模型参数、权重、模型结构信息和模型使用信息的,可豁免技术文件编制和响应监管提供该等文件要求(但由于开源模型并不一定公开训练数据情况,因此,训练数据摘要&版权保留权利的识别和尊重义务不受豁免)。
此外,基于免费开源的通用AI模型提供公共工具、服务、流程或组件的第三方也可相应豁免其对集成方的配合和协助义务(详见下文3.2(2)最后一段)。
3.2 义务的分配:充分考虑主体实际控制、影响AI系统情况
(1)高风险AI系统合规义务在主体间的层次化分配
人工智能系统往往经过生产、提供、流转和使用等多个环节,其风险与人工智能价值链上的多方行为紧密关联,AI法在具体责任分配机制上充分考虑了角色本身在AI服务链条上的参与程度、风险引起和控制能力,在全链路主体上设置了层次化的义务。总体来说,提供者是高风险人工智能系统风险的制造者,并有最强的管理能力,承担的义务多且重,部署者在系统应用阶段承担主要的风险防控义务,并起着补充提供者风险管控义务的作用,其他方承担的义务主要是督促前二者履行义务。 这样的机制形成了一套环环相扣的监管链,在确保对欧盟境内的人工智能系统进行全方位和全过程的管理的同时,避免了以链条中某一特定单一主体承担或由全部主体同等承担所有服务提供者责任的不平衡的责任分配方式。
1)系统提供者
如3.1.(2)对系统提供者内核特征的总结,系统提供者往往决定了系统的预期用途、对系统的开发过程有着最高的参与/控制程度、对系统的机制机理掌握最充分的信息,因此系统提供者是高风险系统的主要责任方,需承担涵盖上市前、上市中和上市后后的全生命周期的合规义务(详见AI法第16条):
• 上市前:AI法第8条至第15条下的高风险AI系统合规符合性保证义务(包括风险管理系统、训练数据治理、技术文档、记录保存、对部署者信息披露要求、人工监督能力、准确性和稳健性的规定)、构建质量管理体系要求。
• 上市环节:开展上市前合规符合性评估、获取并标识CE认证、在欧盟高风险系统数据库备案义务。
• 上市后:留存日志、采取纠正措施、配合监管等一系列责任。
2)部署者
如序言所述,“虽然与人工智能系统有关的风险可能来自此类系统的设计方式,但风险也可能来自此类人工智能系统的使用方式”,对于使用环节的风险控制,AI法既未苛求系统提供者来承担,亦非完全施加于部署者,而是适当地将使用环节风险控制义务按照系统提供者和部署者各自可能控制范围做了分配:
【滥用系统风险】AI法将下游严格按照系统使用说明使用系统设置为部署者的核心义务。相应地,系统提供者向下游部署者的信息披露义务亦被作为高风险系统提供者合规要求的一部分(详见AI法第13条),以便部署者能够正确解释系统的输出并适当使用,AI法第13条第3款详细规定了信息披露要求的内容及范围。
【日志留存、人工监督及运行过程输入控制】系统实际使用过程中系统日志留存、对输入数据的控制、对系统运行过程中的人工监督等方面对于确保使用过程的安全以及事后可追溯、可追责有重要意义,本身也是AI全生命周期治理要求的一部分。对此:
• 受限于部署者开发能力以及AI系统本身所设计以及提供的方式,部署者对AI系统使用环节的系统日志留存、人工监督对等时机控制能力和控制程度军于这几方面的参与程度本身可能存在不同程度的差异,因此,尽管理想状态下,部署者需对部署使用过程负责,AI法仅要求部署者在自身控制范围内履行系统日志的留存义务、开展人工监督、以及确保系统输入数据符合系统设计时的预期(详见AI法第26条)。
• 但系统日志的留存及人工监督的开展本身需要系统具备相应机制,而可预见地,不同部署者专业背景不同,并不一定都有能力自行在系统层面进行此类机制的配置,AI法首先在系统提供者层面,相应要求其需确保高风险系统应当具备自动记录日志的能力、通过适当的人机交互接口工具支持在人工智能系统使用期间由自然人进行有效监督,同时,也考虑到客观上系统可能运行于系统提供者环境,因此也要求系统提供者自身在其控制范围内记录系统自动化日志(详见AI法第19条)。
【对受影响的人权利的保护】由于部署者对实际使用环境、使用方式以及可能受影响的群体情况最为了解,相较而言,系统提供者无法实际掌握此类信息,因此,AI法规定由部署者负责对受影响个人的权利保障:
• 开展【基本权利影响评估】(AI法规定的适用情形下)【数据保护影响评估】(涉及GDPR规定的情况下)
• 负责响应个人依照AI法向部署者要求提供关于AI系统在决策过程中的作用以及所作决定的主要因素的解释的诉求。
• 情感识别系统或生物特征分类系统的部署者应将该系统的运行情况告知接触该系统的自然人。
3)进口者和分销者
至于进口者和分销者,由于其既不参与系统的开发,又不参与系统的实际使用,但作为衔接提供者和部署者的中间流转方,主要被分配的是对提供者和部署者的合规督促和对监管行动的配合方面义务。
(2)合规义务在上下游的转移设计
如上文2.2(2)介绍,AI法未对本身不涉及高风险、仅涉及特定透明度义务的AI系统作类似法律角色及其项下义务转移的约定;并且,从AI法25条表述看,当同时构成高风险AI系统、又涉及法案第50条透明度义务时,即便命中系统提供者角色转移情形,透明度义务亦不发生转移。本文认为,这亦是AI法考虑实际参与主体对参与程度、风险引起和控制能力进行平衡责任分配的体现之一:前述“系统提供者角色转移情形”于原始系统提供者而言,是系统投入市场/投入使用后被动发生,本身超出其可预期和控制之范围,且AI法下高风险AI系统的合规义务较为繁杂,部分义务(如发生实质修改的系统的新的合规符合性评估等)继续由原始高风险AI系统提供者承担高风险AI系统提供者合规义务客观上存在执行障碍且不公平,由主动触发系统提供者角色转移情形的主体作为法律意义上提供者在原始系统提供方必要配合和协助基础上承担更为合理;而AI法下涉及提供者角色应履行的“透明度义务”仅为1)内容生成式系统在系统层面的系统输出内容机器可读标注以及可检测、2)意图与自然人互动的AI系统的AI互动情况透传义务,此两项要求本身可内嵌于系统设计本身,在发生类似前述提供者义务转移情形时不向下游迁移影响不大,上下游可以合同方式进行责任分配。
(3)强调上下游协同配合:互相的信息披露及支持配合义务
AI法对价值链上的不同主体之间彼此的信息披露做了许多安排,除上文提及的系统提供者向部署者提供使用说明、保障其按照正确方式使用系统部署者需向受影响的人作必要的透明度披露外,AI法下还涉及:
• 模型提供者向下游系统提供者的信息披露。尽管模型提供者并不直接参与AI系统合规义务的分配,但由于通用人工智能模型的基础性特征,AI法第53条第1款b点明确规定,通用人工智能模型提供者应向打算将该模型整合入其人工智能系统的系统提供者提供信息和文档,其内容应至少覆盖AI法附件十二所列明信息,并且且这些信息和文档应“使系统提供者能够充分理解模型的能力和限制”,这为下游主体履行各自合规义务提供了保障。
• 上文2.2(2)提及的,特定情况下为治理目的,将部署者/进口者/分销者/产品制造商视为高风险系统提供者并要求履行高风险系统提供者义务的情形,该等情形下,上游AI系统提供者将不再作为该具体场景下的系统提供者,但AI法规定其有义务提供必要的合作,包括提供信息、技术访问权限和其他协助,以帮助满足AI法中设定的义务,包括帮助完成对高风险AI系统的合规符合性评估(详见AI法第25条第4款)。
• 除与上游AI系统提供方之间的协同外,AI法还要求高风险AI系统的提供者应该和那些提供被用于或集成进高风险AI系统中的AI系统、工具、服务、组件或流程的第三方,签署书面协议,明确第三方应配合和提供高风险AI系统的提供者能够完全遵守AI法设定的义务所需的信息、能力、技术访问权限和其他帮助。在该等设计下,尽管相关第三方仍非直接受AI法约束,但有利于为高风险AI系统提供方的合同谈判提中争取第三方的配合义务安排提供有利地位,进而有助于改进AI法下整体治理效果。
前述上下游之间协同配合机制设计,使得价值链上的各方面信息得以打通,避免上下游之间互相的推诿导致AI法下的治理措施无法有效落地,同时,对于AIAI法和GDPR之间的衔接亦有重要意义。GDPR下个人数据处理的大部分义务、责任和问责制都赋予了 "控制者"。在人工智能系统的部署阶段,很可能人工智能AI法的 "部署者"才是 GDPR 规定的 "控制者",而提供者则更有可能被定性为 "处理者",代表用户处理个人数据,特别是如果他们以API接口或SaaS软件方式为人工智能系统提供支持或维护服务,进而获取人工智能系统的输入输出,涉及代表用户并根据用户的指示处理个人数据(当然,根据《人工智能法》,提供商有法律义务确定人工智能系统的预期目的和技术数据收集,这亦有一定可能会导致提供商与其客户(用户)构成共同控制者)。此时,即使根据AI法(如第 26 条),部署者的责任相对有限,但根据 GDPR,他们仍需对人工智能系统如何使用个人数据或使用人工智能系统所产生的个人数据承担包括透明度、自动化决策、数据安全保障、权利请求响应等作为个人信息控制者的责任和义务,此时,人工智能法第13条要求系统提供者对下游用户的广泛的透明度义务(包括系统预期目的、准确性水平、性能、输入数据的规格以及实施的人工监督措施等)对于部署者在未参与系统研发设计情况下履行GDOR下 数据保护影响评估职责以及透明度要求具有巨大价值。
附1:AI系统风险等级划分(示意图)
附2:通用人工智能模型(GPAI Models)
以 ChatGPT 为代表的生成式人工智能在知识生产、人际关系以及产业发展层面均将对社会产生深远影响,各国均在寻求和探索对其进行治理的路径。欧盟理事会于2022年12月6日就AI法达成共同立场时的新增了有关“通用人工智能模型”(General Purpose AI Models,“GPAI Models”)的合规要求(现在的第 51 条至第 56 条),在全球范围内首次在法律层面提出并明确了“GPAI Models”的概念,并区别于其他非通用模型,在AI系统的风险分级及监管逻辑之外,单独定义通用人工智能模型提供者角色并针对其设置模型研发及后期监测阶段的监管要求。
1.AI法下 GPAI Models的内涵及外延
从AI法对GPAI Models的定义以及相关序言判断,AI法将“显著的通用性和胜任各种不同任务的能力”以及“可被集成到各种下游系统或应用”这一基础性地位作为界定GPAI Model的“关键功能特征”,但AI法明确排除了在投放市场前用于研究、开发和原型设计活动的人工智能模型的适用。
该概念直接涵盖当前给人工智能治理带来巨大挑战的大型生成式人工智能模型,同时也为未来潜在的其他技术路线下的先进、通用人工智能的适用留有空间。AI法序言部分则明确了现阶段技术发展情况下通用人工智能模型的“外延”:
• 有十亿以上个参数并使用大量数据通过大规模自监督进行训练的模型,应视为显示出显著的通用性,并且能够胜任各种不同的任务,故而构成通用人工智能模型。
• 大型生成式人工智能模型(Large generative AI models)是通用人工智能模型的典型范例,因为它们可以灵活地生成内容,如文本、音频、图像或视频形式的内容,可随时适应各种不同的任务。
2. GPAI Models与国内相关概念
国内目前在法律和监管层面没有“通用人工智能模型”这一概念,更多被提及的相关概念为“生成式人工智能”、“大模型”、“基础模型”等,结合下方表格内对于三者相关情况介绍,本文认为:
• 从内涵上来看,通用人工智能模型、基础模型、生成式人工智能模型、大模型等概念范畴并不完全一致,互相之间关系见下方图2,
• 但就当前技术发展阶段,通用人工智能模型与国内当下 “大模型”“大规模生成式人工智能”“基础模型”外延指向可以认为基本一致,均指向以GPT-3.5等为代表的大型生成式人工智能模型。为本文讨论语境的一致性,后文将不再对这几个概念进行严格区分。
生成式人工智能 | 生成式人工智能(Generative AI,“GenAI”)是一种能够生成新的、原创性的内容(如文本、图像、音频等)的人工智能技术,该概念强调生成新内容的能力,包括各种生成模型,如生成对抗网络(GANs)、变分自编码器(VAEs)、transformer等,用于生成文本、图像、音频等不同类型的内容; 目前GenAI是中国现行监管规范明确规制对象,但本文认为,并非所有生成式模型都能具备欧盟“通用人工智能”概念下的“通用性”,只有能够灵活适应各种不同内容生成任务的“大型生成式人工智能模型”方才能被认为是GPAI Model。 |
大模型 | 大模型通常是大规模预训练模型的简称,是基于互联网可用数据训练而成的深度学习模型,以超大规模参数为核心技术特性,是中国当下生成式人工智能监管(备案)实务中事实上的监管(备案)对象。参考AI法序言第(98)段,如达到10亿以上个参数,参考AI法序言,通常具备通用性、可直接被视为属于GPAI Model。 |
基础模型 | 全国信息安全标准化技术委员会发布近期发布的《生成式人工智能服务安全基本要求》(“《基本要求》”)中,引入了“基础模型”的概念,其定义为 “在大量数据上训练的,用于普适性目标、可优化适配多种下游任务的深度神经网络模型”,该概念在实质层面接近于AI法下的通用人工智能模型。 |
主要参考文献:
[1] 王卫:《欧盟理事会正式批准<人工智能ai法>》,载《法治日报》2024 年6 月3 日第 006 版。
[2] 夏浩胜:《生成式人工智能的域外监管动向及启示》,载《新兴权利》集刊2023年第2卷——生成式人工智能法律问题研究文集。
[3] 董新凯:《生成式人工智能治理的经济法逻辑》,载《山东师范大学学报 (社会科学版)》·2024 年第 3 期。
[4] 朱悦:《欧盟和美国人工智能监管如何在价值链中分配责任》,载周辉等主编《人工智能治理:场景、原则与规则》,中国社会科学出版社 2021年版。
[5] [德]沃尔夫冈·多伊普勒:《<欧盟人工智能法案》的背景、主要内容与评价——兼论该法案对劳动法的影响》,载《环球法律评论》2024年第3期。< p="">
[6] 黄静怡:《“分级分类”与“契约”风险治理并行的人工智能监管制度构建——以欧盟《人工智能法案》为分析对象》,载《海南金融》2024 年第 2 期 总第 423 期。
[7] 刘艳红:《生成式人工智能的三大安全风险及法律规制——以ChatGPT为例》,载《东方法学》2023年第4期。
[8] 皮勇《欧盟<人工智能法>中的风险防控机制及对我国的镜鉴》,载《比较法研究》2024年第4期。
[9] 宋黎磊:《“去风险”视域下欧盟人工智能战略的推进 及影响...——以《人工智能法案》为例》,载《战略决策研究》2024年 第4期。
[10] 张凌寒:《生成式人工智能的法律定位与分层治理》,载《现代法学》2023年第4期。
[11] 王卫:《平衡科技创新与隐私保护 多国计划加强对 ChatGPT 监管》,载《法治日报》2023 年 4 月 10 日,第 5 版。
[12] [德]沃尔夫冈·多伊普勒:《<欧盟人工智能ai法》的背景、主要内容与评价——兼论该ai法对劳动法的影响》,载《环球法律评论》2024年第3期。< p="">
[13] 张欣:《人工智能的算法治理挑战与治理型监管》,载《现代法学》2023年第3期。
作者:邹恬圆 高震 某互联网公司数据及隐私法务
王金钧 中国信通院互联网法律研究中心工程师
本文仅代表作者个人观点。
声明:本文来自CAICT互联网法律研究中心,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。