今天和大家分享的是朱悦对欧盟《人工智能法案》谈判的分析。
2023年6月14日,几乎也是欧盟议会通过其立场的同一时间,欧盟各立法机关即开始就《人工智能法案》(《法案》)展开三方谈判。当天的第一次政治三方已达成了不少共识。之后一个月内,召开了两次技术三方和其他多次非正式的会议。如果7月18日第二次政治三方顺利完成议程,可以认为立法谈判已然接近过半。正逢其他法域立法取得进展。当前正是“瞻前顾后”的良机。
结合欧盟委员会《法案》提案、欧盟议会和欧盟理事会的各自立场以及立法过程产生的其他版本,可以将《法案》条款大致分为三类。第一类是三方在政治和技术层面均无分歧的条款,大致对应谈判中的“标绿”条款。第二类是政治层面没有分歧、但技术层面需要对齐的条款,大致对应“标黄”条款,第三类是政治层面有分歧的“标红”条款。下文逐类加以介绍,再相应瞻前顾后。
标绿条款
通过对比三家立法机关的提案和立场,可以看到三方对一小部分条款在谈判前就持有完全一致的立场。再加上6月14日政治三方彼此确认的部分,这样的条款占到《法案》的接近三分之一。篇幅所限,只能扼要介绍。为此,从鉴于、正文和附件部分各选一条,借以例示各方共识中相对“厚实”的部分。
在鉴于部分本就不多的标绿条款中,第53条值得注意。概言之,第53条指出有必要定义名为“提供者”的主体。提供者承担将人工智能系统投放市场或投入服务的责任,无论其是否实际研发了这一系统。提供者可以是法人,也可以是自然人。这为未来适用提供了不少有用的细节。再进一步,可以猜测提供者大概率又是一个功能性的概念。其他已经达成一致的鉴于条款大多也是方向性的。
正文部分的标绿条款数量更多,但相对分散。梳理第3条“定义”中已经达成一致的项目,例示整体谈判进度的效果最好。当前,主要有两类比较核心的定义已经标绿。一类是界定《法案》调整范围的概念,主要包括“投放市场”“投入服务”“预期目的”。一类是部分技术色彩比较强的概念,主要包括“训练数据”“测试数据”“输入数据”,等等。关于治理模式的概念谈判也有不少的进展。
附件部分争论依然十分激烈,但附件七等数个附件已然接近“尘埃落定”。附件七从多个方面细化了合格评估的要求,特别是材料准备的要求。能够较早达成一致,既说明立法机关认为合格评估用于人工智能监管相对成熟,也提示了其他正在进行的有关立法的进度。仅存的争议条款是其中第4条第5款。不过,各方都认为访问代码需要满足必要性且穷尽其他评估方法。分歧是技术性的。
标黄条款
借助类似的方法,可以看到对于接近一半的条款,三方之间只存在技术性的分歧,而没有政治性的分歧。尽管技术性分歧完全可能,也时常裹藏了政治性的分歧,但绝大部分标黄条款不会构成谈判协定的政治障碍。同样选取三个例子,分别来自高风险人工智能的提供者义务、监管沙盒和基本权利影响评估。
高风险人工智能的相关主体义务显然是块“硬骨头”。不过经历反复的拉锯和交换之后,7月18日会议有望将其基本啃下。其中,第17条代表一类,只有第1款如何将人工智能质量管理系统纳入现有系统还有技术性分歧。第18条代表一类,尽管已经明确以理事会立场为主导,但每一款每一项的具体写法还有空间。此外还有特别“崩牙口”的第23a条,很可能成为留到最后一刻的争点。
监管沙盒的重要性和争议程度同样无需多言。7月18日会议有望将作为核心的第53-54条推进到只余标黄条款的程度。为此,不仅需要理顺成员国内部和之间设立沙盒和合作实验的职责和机制,还要决定是否将沙盒结果与合格性评估和后市场监测等打通。是否允许、如何允许实地实验也是争点。一旦明确成员国有责任设立沙盒、打通前后环节并且允许实地实验,沙盒各条随之相应标黄。
基本权利影响评估同样有着相当的重要性。各方先前也有根本的政治性分歧——究竟是否需要这一评估?随着谈判推进,这一评估的形象愈发凝实。7月18日的谈判主要厘清三个方面。一是是否只有公共机关需要实施评估义务。二是高风险人工智能部分所设定的义务是否当然意味着满足部分评估义务。三是数据保护影响评估是否同样当然意味着满足评估义务。之后,第29a条亦由红转黄。
标红条款
借助类似的方法,可以看到对略多于三分之一的条款,三方之间仍存在政治性的分歧。这又分两种情况。一种是委员会提案未曾考虑、但理事会和议会立场决定增加的条款。此时未必有特别大的分歧。另一种则意味着确实存在根本的分歧。伦理原则、人工智能基准和基础模型三类条款,分别例示了不同的情况。
伦理可以说是人工智能监管当中关注和讨论最多的部分。第4a条规定了适用于所有人工智能系统的一般性伦理原则。既有“人类中心”的总体原则,又有人类主体、技术稳健、隐私保护等耳熟能详的个别原则。其中第2、3款进而明确该条主要是宣示性的条款。由于这是议会立场单方加入的条款,目前其处在整条标红的状态。尽管如此,只要条款定位不改变,仍可视为标黄居多的状态。
人工智能基准的规定集中在第58a条。既是新兴的监管探索,又甚为深入地穿透技术。根据本条,欧盟人工智能办公室和其他有关机关有权为人工智能系统和组件,特别是基础模型设定基准。质言之,这一规定尝试将长期属于技术社区的评价权力转移到行政机关手中。由于其同样是议会立场单方加入的条款,也是整体标红。随着《法案》其他条款越发明确地涵盖基准,其红色占比也在下降。
最后是基础模型。尽管其他许多条款都很重要、都有争议,但没有其他那个部分比得上基础模型的重要程度和分歧大小。欧盟委员会和理事会内部都曾讨论过是否针对性监管基础模型或类似的人工智能,最终还是选择搁笔。正巧在GPT狂飙突进之时形成立场的议会抓住这个机会,起草了一整套的监管方案。自然也是整体标红,并且“成色”十足。所有实质性条款应当都要等到最后一刻。
结语和展望
基于截至2023年7月17日时三方产生的各版正式或非正式文件,可以仔细梳理《法案》当前的谈判进度。如前,假使7月18日的第二次政治三方一切顺利,即可认为《法案》谈判整体已然过半。或者说,一开始就没有分歧的条款,再加上后续洗尽红色的条款,已经占据了《法案》内容的大多数。
回顾大体完毕。接下来是非常简要的、猜测占比更重的前瞻。当前而言,最有可能需要最后时刻“大刀阔斧”的,主要是适用范围、概念定义、主体义务等部分的少量条款,以及基础模型、治理模式、附件三等部分的大量条款。有着许多理由认为很难达成妥协,也有一些理由认为进度不会减缓。前一类理由主要还是是其间的参与者太多,较量也太过复杂。后一类理由既包括三方近期各自对外或对内表达的立场,也源自《数据法》谈判里意料之外、“大开大合”的妥协。
声明:本文来自网安寻路人,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。