算法的治理和监管、自动化决策中涉及的法律问题是人工智能时代学术界和产业界关注的焦点。主流观点认为,GDPR对于监管自动化系统的潜力有限,并且相关研究局限于机器学习这一狭义的领域。对此,Nadezhda Purtova和Ronald Leenes在牛津大学出版社上发表《代码作为个人数据:对数据保护法律和算法监管的影响》,作者在文章中创新性地提出:部分代码属于个人数据的范畴,并进一步探讨了这一观点对数据保护和自动化系统监管的意义。
文章首先从代码的定义出发,介绍了代码的相关术语和基本结构。接着,简要讨论了GDPR下个人数据的含义,并将该定义应用于计算机代码,为代码作为个人数据提供论证。最后,探讨了将代码作为个人数据将对数据保护和算法系统监管产生的积极和消极影响,以及分析了将代码置于GDPR的法律之下,相较于AI法案所具备的优势。
一、本文所指的代码:术语和基本结构
文章第一部分解释了文中代码的含义,并介绍了其他相关的计算术语。首先,在计算机软件和硬件的区分中,硬件是指执行指令从而将输入转换为输出的物理实体,而软件是告诉计算机要做什么的指令。本文将“代码”理解为计算机软件。
接着,根据在人与机器之间的指令传递中的位置,计算机代码通常分为两种类型或层级,即源代码和目标代码。还有第三种将源代码转换为目标代码的代码类型,即编译器和解释器。其中,两种类型或层级的计算机代码之间的关系为,源代码被编译或解释为目标代码。源代码,也称为程序,是由人类程序员用高级的、可读性较好的编程语言(如Python、C++或Javascript)编写的一组指令。源代码表达了程序员(或如今通常称为编码者)为执行分配给程序的任务而设想的一系列指令。源代码是非常具体的,描述了如何执行特定的任务。为了让计算机执行源代码中编写的指令,这些指令必须被翻译成目标代码,即机器语言中的指令,例如二进制代码,这些代码是机器可以执行的。其中,从源代码到目标代码的转换由编译器(用于一次性转换)或解释器(每次应用程序运行时)完成。虽然源代码以相对抽象的方式描述了计算机需要做什么,但目标代码指定了如何通过特定的硬件配置来实现这一目标。目标代码可以通过反向的编译或解释过程(称为反编译)再生成“源”代码。
除了对三种计算机关键概念作出解释以外,文章还对一个相关概念“算法”作出解释。计算机领域长期以来存在算法、数据(结构)和程序之间的区别。虽然没有一个通用的算法定义,但人们普遍认为算法是一系列有限的指令,用于将某个输入转化为某个输出。算法作为一组指令被编码到源代码中,然后编译成目标代码。可以认为计算机程序实现了一个或多个算法,其中算法代表主要任务,而程序的其余部分描述了支持任务。本文中,除非另有明确说明,将“代码”或“程序”和“算法”作为可互换的术语。
随着机器学习(ML)的出现,算法对数据的作用发生了变化。机器学习是数据(结构)和算法之间边界变得越来越模糊的一个例子。在传统软件中,程序员需要清楚地知道“如何”解决特定问题,然后制定必要的步骤的算法,之后程序员将会输入数据提供给算法,然后算法会按照预定的步骤对输入数据进行处理,产生相应的输出结果。在许多机器学习情况下,机器算法通过从数据中学习模式和规律,自动调整自身的行为,而不需要明确的编程指令。因此,程序员可能不需要确切地知道如何执行特定任务,但确切地知道哪些数据与任务相关,并且清楚地知道评估函数,使得他(或系统)能够确定任务是否成功完成。
机器学习引入了一些新的相关计算术语。机器学习系统由一个应用程序组成,该应用程序在可修改参数的通用模板上操作,称为机器学习模型。为了实际产生功能,机器学习模型需要额外的软件(和硬件)来处理输入数据以生成输出数据,类似于嵌入在软件中的传统算法。许多任务可以通过由人类使用传统编程语言设计的算法或通过机器学习技术来执行。选择前者还是后者取决于许多因素,其中之一是描述输入和输出之间关系的难易程度。在本文中,就机器学习模型作为可执行的知识体系而言,将其视为代码。
二、个人数据的定义:GDPR和其他相关规定
鉴于GDPR适用于“个人数据的处理”(GDPR第2(1)条),因此个人数据的概念作为触发数据保护法保障的关键概念。GDPR将“个人数据”定义为:“任何与已经确认或可确认的自然人(“数据主体”)相关的信息;可确认的自然人是指可以直接或间接地通过识别符号(例如姓名、身份证号码、位置数据、在线标识符)或与该自然人的物理、生理、遗传、心理、经济、文化或社会身份有关的一个或多个特定因素来识别的自然人。”因此,该定义包含个人数据界定的三个要素:(1)信息;(2)与(自然人)相关;(3)被直接或间接地确定或可识别。本文根据欧洲联盟法院(CJEU)的判例法和非约束但具有权威解释的第29工作组(Article 29 Working Party)[1]的解释,本文对这些要素的含义进行简要回顾。
(一)信息
立法者可能认为“信息(information)”的含义是不言自明的,因此GDPR(以及其前身1995年《数据保护指令》)并未对信息进行定义,也没有定义应包含哪些类型的信息。第29工作组引用了立法者“设计一个广泛的个人数据概念”的意图,并解释说,无论其性质、内容或格式如何,任何信息都可以被归入“个人数据”的概念中。欧洲联盟法院在Nowak案[2]中采用了同样广泛的信息观,澄清个人数据不仅限于敏感或私人信息,而是可能涵盖各种信息,不仅是客观的,还包括主观的,以观点和评估的形式。
(二)相关性
第29工作组和欧盟法院在对“相关性”含义均作出广泛的解释。根据内容、目的或结果的不同,信息可以被认为与人相关,这是作为互补而不是叠加的标准来理解的。这意味着“与自然人相关的”信息包括但不限于“关于”该人的信息。无论信息是“关于”敏感问题还是看似无害或平凡的问题对于确定信息的个人数据状态都没有任何影响。
信息与个人在内容上的相关性是指当信息是“关于”该人时。信息与个人在目的上的关联是指“使用数据或有可能使用数据...目的是评估、处理或影响个人的状态或行为”[3]。最后,无论信息的内容或任何处理目的如何,它可能与个人的效果或结果相关,即“使用该信息可能对某个人的权利和利益产生影响”[4]。相关的影响不必是“重大的”,即轻微的影响即可,例如与其他人不同对待。
(三)识别或可识别的(自然人)
对于一条信息被视为个人数据,它必须与被确定或可识别的自然人相关。虽然GDPR本身对“确定”的含义保持沉默,但第29工作组解释说,当一个自然人在一群人中被“区分”出来时,他或她就被确定了[5]。有些国家法院将“确定”解释为一个人被“个体化”。目前为止,已经确定五种不同的识别类型,为评估可识别的可能性提供了基准。
● 查找识别(look-up (l-) identification):一个人可以通过在注册表中存储的姓名、身份证号码或其他民事标识符来进行识别,并允许在现实世界中查找个人。
● 认可识别(recognition (r-)identification):一个人可以通过呈现一些已知或可接受的特征、标记或行为模式来被识别为已知或符合条件的个体,这些特征、标记或行为模式被接收者认可为有效。
● 分类识别(classification (c-) identification):一个人可以通过被描述为特定群体或类别的成员来进行识别。例如,年龄、性别、着装风格等可以作为分类的依据。只有在将个人描述为属于某个特定类别足以在给定的上下文中将其与其他人区分开来时,分类才构成GDPR中的识别。
● 交互识别(Session (s-) identification):这本质上是一种识别形式,旨在在特定交互过程中跟踪个人,其中标识符的生命周期仅限于该交互过程的持续时间。
● 定位识别(targeting (t-) identification):一个人可以通过在某个时间点被选为注意或处理的对象。定位识别可以通过一个不重复的标识符来实现,这个标识符在特定时间段内唯一标识这个个体,或者通过识别个体与特定属性或特征的组合来实现。
在GDPR中,可识别性(identifiability)意味着具有合法相关性的识别(identification)可能性。当一个自然人尚未被识别出来,但存在对他/她进行识别的可能性,这个自然人是“可识别的”(identifiable)。GDPR第26条考虑识别的合理可能性作为构成可识别性的门槛:“为了确定一个自然人是否可识别,应考虑合理可能被使用的方式,例如控制者或其他人通过直接或间接的方式来将自然人区分出来。为了确定这些方式是否可能被使用,应考虑所有客观因素,例如识别所需的成本和时间量,在处理时考虑可用技术和技术发展情况。”
因此,可识别性被理解为区分某人的可能性,即将某人与群体区分开来,而五种识别类型为评估识别可能性提供了基准。识别的可能性应该不仅从特定控制者的角度来评估,还应作为一个客观可能性来考虑,考虑到任何其他人对识别的可能性,并考虑案件的“所有客观因素”。欧洲法院在Breyer案[6]中确认了这种客观和广泛的可识别性方法。
(四)结论:个人数据作为一个动态和包容性的概念
GDPR将个人数据定义为一个动态和包容性的概念。GDPR中对“个人数据”的定义提供了一种“适应特定背景的定制分析方法,以确定是否存在个人数据”。[7]就同一信息而言,随着技术和其他相关情况的变化,必须考虑到这种方法所要求的变化,结果也会发生变化:同一数据或信息可以从明显非个人转变为个人。应用这种方法会增加处理个人数据的情况范围。GDPR对个人数据的定义是动态和广泛的,以至于有人认为它过于包容性。根据欧洲法院的判决记录,法院不太可能将个人数据的定义解释得过于狭义,因为这将损害数据保护法旨在确保对个人数据处理的基本权利和自由的高水平保护的目标。
三、为什么代码可以是个人数据
本文观点认为,所有软件(本文第一部分提出将代码视为软件)都是“信息”,因此原则上所有软件都可能成为个人数据,前提是满足法律定义的其他两个要素。接下来,文章将逐步分层论证“代码作为个人数据”这一观点。
(一)所有代码都是“信息”
传统观点认为,“信息”在个人数据中的定义是指“对人类有意义的内容”,并且可以单独或与其他信息结合,产生与该人相关的一些或多或少敏感的“知识”。在这一定义下,计算机程序难以被认定为信息。然而本文作者认为,基于意义和知识的信息理解只是一种方法,而立法者试图设计一个广泛的个人数据概念,欧盟数据保护法旨在为个人数据提供高水平的保护,因此作者认为不能用传统的角度狭义地理解信息的含义,而是应该对信息应当作出广泛的解释。文章从三个方面对“信息”的含义作出解读。
第一,语义方法。对信息的“语义”理解取决于“意义”的存在。信息对某人来说具有意义,当意义被理解和内化时,就会产生知识。意义使信息具有主观性,对于具有不同背景知识和经验的不同接收者来说,信息具有不同意义。
第二,句法或统计方法,这类方法不依赖于意义。这类方法核心观点认为,信息只是存在,独立于人类的认知。在香农的数学信息理论中,该理论最初被称为通信理论,它将信息定义为“从给定信号集合中选择一个符号或信号的统计概率”[8]。这一理论中,“意义”对于信息的认定似乎没有发挥任何作用。除此之外,在“信息的自然化”趋势下,信息不仅不依赖于意义,而且不依赖于人类的认知,对于某些人来说,甚至不依赖于人类的存在。
第三,本文接纳对信息的差异化理解,并将这些差异视为相互兼容的方法。根据Floridi的观点,“信息”这个概念涉及三个相互兼容的现象:关于现实的信息(语义信息),即对现实世界的描述和理解;作为现实的信息,指的是作为物理信号的模式,例如DNA或指纹;以及为了现实的信息,包括遗传信息、算法、指令或配方等,用于创造、操作或影响现实。[9]Capurro和Hjorland认为,语义和数学方法在定义信息上可以进行调和,因为香农对信息的工程视角和基于意义和认知的理论在选择上具有共同的特征。对于接受概念差异的最终表达,Capurro和Hjorland的理解概念变化的观点,即将各种信息概念看作是维特根斯坦的“家族相似性”。在这种观点中,不同的信息概念并不完全相似,也没有共享一个完全相同的语义核心,但它们通过一个复杂的相似性网络紧密联系在一起。
计算机代码在信息的几个意义上都属于信息。它至少符合句法信息定义,是一组遵循句法规则的符号模式。事实上,如果代码不符合所编写语言的语法,它将无法编译或在计算机上运行。它还可以被视为语义信息,对不同的接收者有不同的意义,例如,软件工程师解释另一位软件工程师编写的源代码并理解其预期功能,从中获得一些意义。然而,对于普通人来说,可能看不出任何意义。如果我们接受句法永远不脱离语义的观点,计算机也会从目标代码中获取意义,因为代码使机器以某种方式运行。在Floridi的分类中,任何计算机代码都是一组命令,因此是塑造或“为”现实的信息。它“通知”计算机应该做什么。因此,从数据保护法的角度来看,代码也是信息,因为数据保护法没有对信息进行明确规定,并且第29工作组对个人数据定义的解释是,“任何”信息都可以被归入“个人数据”概念,而不考虑其性质、内容、格式、媒体或形式。
(二)与人相关的软件
如前所述,实践中对与人“相关性”作出了广义的理解。本部分作者从代码内容、软件设计和部署的目的以及代码应用的效果三个方面,论证代码符合“与人具有相关性”的个人数据。其中,第二个和第三个论点的影响更为深远,涉及数据保护的核心理论,即数据保护法旨在控制信息与人之间的哪种关系。
1. 代码内容
代码由于其语义组成部分可能与(一位)自然人相关。换言之,一些软件可能是个人数据,因为它是或允许对个人的语义信息进行推断,而这在常规的情况下被视为个人数据。例如,对源代码的分析,类似于对书面文本的分析,可能会揭示关于作者的信息,例如他或她的编程风格或源代码的作者。
所有代码都会揭示关于人的信息。Agre认为,任何信息系统的设计都始于对人类行为的建模,无论是个体的还是组织的行为,将其分解为较小的任务(“行为语法”)[10]。因此,代码代表了人类行为的模型,因此是关于人的信息,即关于人们如何行为的信息。诚然,嵌入到代码设计中的行为模型很少基于个体的行为,而是基于一群人的行为,代表了“平均用户”,即抽象的概念。这凸显了本文提出的观点在形成时向各种受众提出的一个问题,即信息是否必须与一个人相关才能成为个人数据?欧洲法院对此作出的回答是否定的。在Nowak案中,法院裁定一条信息(考官的评分)即使涉及多个人(考官和候选人),只要这些人被确定或可识别,仍然可以被视为个人数据。[11]
2. 软件设计和部署目的
某些软件的设计和部署目的是评估、以某种方式对待或影响个体的状态或行为,因此与一个或多个自然人相关。实际上,这正是现在所称的“算法决策”或“算法调控”的全部意义,即部署算法在各种背景和目的下对人进行决策或影响。
设计和部署目的是评估、以某种方式对待或影响个体状态或行为的软件实例包括自动决策和数字决策指导(或助推)。“自动决策”涉及各种情境,这种决策中涉及的算法专门用于评估或影响个体的行为,即使没有明确的目的,也很可能会影响个体的权利和利益。无论是否有人类参与决策,自动化决策技术仍意味着对整个决策过程的结果产生影响。然而,明确影响个体行为、权利和利益的软件并不局限于“做出决策”的软件。有一种软件参与了Yeung所称的“数字决策指导过程”,在这个过程中,关键选择是由目标个体在由算法确定的选择架构的“促使”或“推动”下进行的,而不是由机器决定。Zuboff在广义的信息技术驱动的自动化系统背景下提出,信息不仅仅是从人身上提取出来,还以编程指令的形式强加给他们,即代码。
3. 代码应用的效果
这是关于代码与人类行为之间的核心关系。除了部署或设计用于明确“目的”的代码来评估个人或其行为,或者影响其权利和利益的特定代码实例之外,许多代码实例有意或无意地决定人类行为,因此从效果上看,它们也是与人相关的信息。第二、三个论证的区别在于这种建模的故意程度。与第二种类型的论证相比,第三种类型的论证考虑的建模不是有意的,而是由于设计代码的性质而产生的。代码通过内置的行为模型(即使制造者并没有明确意图)影响行为,并在某些情况下可能对人们的权利和利益产生影响,这构成了第29工作组和CJEU所理解的“因为效果而涉及”的关系。
(三)被识别或可识别的自然人
常见的一个关于个人数据构成的误解是,所讨论的信息需要能够识别特定的人。在代码的背景下,这很难理解。然而,信息本身并不需要对一个人来说是可识别的,而是与该信息相关的人需要通过“所有合理可能使用的手段”来被识别或可识别。这意味着,不一定是通过考虑的信息本身来对人进行识别。因此,根据上下文,代码可以是与已识别或可识别的人相关的信息,无论是单独使用还是与足够的其他信息结合使用以“链接”到该人。根据先前在文章中探讨的识别(五种识别类型)和可识别性的广义含义,有很多种方式可以认为各种类型的个体被视为已识别或可识别。例如,代码的创建者可以通过姓名进行识别或可识别,即根据查找识别的含义。再如,代码的使用者可以通过姓名(查找)或其他持久标识符,如软件许可证号码或设备ID(认可识别)进行识别或可识别。
综上所述,本文证明了所有代码都是信息,在某些情况下,代码是关于人的信息,并且有时明确意图或无意中具有影响人的潜力,因此与人相关。最后,这些人通常可以通过代码本身或其他信息的组合进行识别或可识别。当这些情况同时发生时,计算机代码显示出个人数据的所有特征,因此应该被视为个人数据。
四、代码作为个人数据:对数据保护和算法系统监管的影响
(一)积极方面:为受代码影响的个人提供新的法律保护
将代码作为个人数据将会对数据保护和算法系统产生积极影响。具体体现为,可以将GDPR的原则和权利应用于代码,从而为受到代码影响的个人提供新的法律保护路径。值得强调的是,下文分析的代码限定于符合个人数据特征的代码,而不是所有的代码。
第一,公正、合法和透明的数据处理原则。只要代码构成个人数据,就可以要求过程公平(不欺骗或未经数据主体知情的情况下部署),以及计算机软件使用和设计的结果方面符合公平要求。透明度意味着对数据主体保持透明,包括告知与其相关的代码使用事实、使用目的,以及向信息数据主体告知的实质和形式的要求。合法性原则要求选择适当的法律依据来设计和部署代码。
第二,目的限制原则。要求将代码的使用限制在事先以明确、明示和具体声明的合法目的,并禁止用于非法或不兼容的目的。该原则将禁止秘密部署代码,即以向数据主体声明的目的不符的方式使用。它还可以解决所谓的“功能扩张”问题,即技术获得新的未预见用途,通常被视为不可取的情况。
第三,数据最小化原则。该原则由数据保护法第25条第(2)款的数据保护原则加强,其要求进行代码最小化,这意味着将代码的设计和使用限制在为声明的合法目的所必需和相称的范围内,禁止过度和不成比例的代码使用和功能。代码最小化和目的限制还要求更加精心策划代码设计,不能简单地通过毫无思考地从GitHub或类似平台复制粘贴现有源代码的片段来创建新代码,尤其是在“游击式(guerrilla)”而非专业编码社区中更为普遍。在许多情况下,这种认真策划的编码方法很可能会提高软件质量。
此外,准确性原则、存储限制原则、完整性和保密性原则以及问责制原则均为规制代码提供新的保护路径。“准确性”原则可以转化为要求代码建立在健全的科学方法基础之上。当“存储限制原则”应用于代码时,意味着不要超出特定和合法目的所必需的时间使用代码。它还加强了应用于数据的存储限制原则,并要求使用能够进行识别的软件与合法目的相称。“完整性和保密性”原则要求保护代码免受未经授权的访问和篡改,这在数据安全之外增加了另一层网络安全义务。“问责制”原则将转化为对算法部署和设计的问责,即算法部署和设计者有义务证明合规性并对设计和使用选择进行合理解释。
将数据保护原则应用于代码的许多新应用可能呼吁并加强已经存在的保护,因为代码的部署通常构成数据处理。然而,还将创建新的保护措施,涉及代码本身。将一般数据保护原则应用于代码将推动进一步探索和阐明这些原则的含义和保护潜力,无论是在法学研究还是实践中,这是一个积极的发展趋势,因为迄今为止这些一般原则的潜力尚未得到充分利用。
此外,本文还分析了将代码置于GDPR的法律之下,相较于AI法案所具备的优势。首先,AI法案仅关注一部分计算机代码,即具有一定自主性、能够根据数据进行推理并使用机器学习、逻辑和知识为基础的人工智能系统。相比之下,GDPR可能适用于任何类型并且对已经确定或可识别的自然人产生有意或无意影响的计算机软件。其次,AI法案将AI系统视为工具,因此主要关注其设计和技术特征,而应用于计算机代码的GDPR通过其一般原则、权利和义务,从代码的起源和设计到使用和销毁的整个生命周期,提供了一种系统化的方法来解决代码引发的危害。第三,AI法案作为任何类似产品安全的立法,并未预见受到人工智能系统影响的自然人或法人可以针对人工智能提供者或使用者行使的任何权利。而适用于代码的GDPR可以作为补充相关权利的来源。最后,虽然AI法案以禁止某些AI系统的形式划定了一些“红线”,并实施了透明性和可解释性的价值观,但GDPR的方式更加具有规范性基础,体现在GDPR的一般原则中,包括合法性、公正性、透明度和比例原则等。
(二)消极方面:GDPR无法承受之重
将代码视为个人数据最直接和核心负面影响是,这可能过分扩大了GDPR已经足够宽泛的范围,由此增加了执法和合规成本。如果将GDPR的义务扩展到代码制作者和用户,这将进一步导致GDPR合规责任划分复杂化。在互联网的多层架构和现代IT服务的情况下,定义谁是控制者,以及他们各自的责任范围从何开始和到何结束,将变得更加困难。将计算机代码视为个人数据,并将其纳入GDPR的范围,将进一步加剧这些问题,并有助于将数据保护法律视为法律虚构的形象,即欧盟法律中“最不受重视的立法框架”之一,如果得到正确实施,将因其自身过重而崩溃。
五、结论与讨论
本文提出了一个创新性的观点,即当计算机软件用于构建、评估和引导我们的行为时,许多计算机代码都是与已识别或可识别的自然人相关的信息,即GDPR中所指的个人数据。鉴于现有法案调整范围的局限性,将GDPR应用于计算机代码可以为数字权利倡导者提供证据,以主张在其他法律体系下尚不存在的对访问和控制算法的权利。
同时,本文对“代码作为个人数据”的观点将导致数据保护法律过于广泛和超越限度的批评表示赞同。但是,该观点的提出旨在重新思考如何构建对数字社会风险的法律保护?如何调整数据保护法律监管背后的目标和实现这些目标的机制?因此,本文的分析不仅仅为数字权利倡导者在战略诉讼中提供论据,也不仅仅为GDPR适用范围过于广泛的批评者提供论据,而是引发“针对数字危害的法律保护应该是什么样子”的思考。
参考文献
[1] 第29工作组全称为“第29条数据保护工作组”,该工作组是根据欧盟95/46/EC指令的第29条设立的。它是一个独立的欧洲数据保护和隐私咨询机构。其任务在95/46/EC指令的第30条和2002/58/EC指令的第15条中有所描述。关于个人数据概念的意见4/2007”(以下简称“WP 136”,2007年6月20日),该意见在GDPR下仍然具有重要意义,该意见旨在为欧洲范围内发生的某些情况提供国家数据保护规则应如何应用的指导,从而有助于统一应用这些规范。详细参见:https://www.clinicalstudydatarequest.com/Documents/Privacy-European-guidance.pdf.
[2] Peter Nowak v Data Protection Commissioner, Case C-434/16, [2017] CJEU (ECLI:EU:C:2017:994).
[3] See WP 136, 10.
[4] See WP 136, 11; also Nowak [35].
[5] See WP 136, 12.
[6] Patrick Breyer v Bundesrepublik Deutschland, Case C-582/14, [2016] CJEU (ECLI:EU:C:2016:779).
[7] Paul M Schwartz and Daniel J Solove,‘Reconciling Personal Information in the United States and European Union’ (2014) 102 Calif Law Rev 877.
[8] Fritz Machlup,‘Semantic Quirks in Studies of Information’in Fritz Machlup and Una Mansfield (eds), The Study of Information: Interdisciplinary Messages (Wiley 1983) 641–71, 658.
[9] Luciano Floridi, The Philosophy of Information (Oxford, OUP 2011) 30.
[10] Philip E Agre, ‘Surveillance and Capture: Two Models of Privacy’ (1994) 10 Inform Soc 101.
[11] See Nowak [45].
寇晨雪 | 清华大学智能法治研究院实习生
选题、指导 | 刘云
编辑 | 刘懿阳
注:本公众号原创文章的著作权均归属于清华大学智能法治研究院,需转载者请在本公众号后台留言或者发送申请至computational_law@tsinghua.edu.cn,申请需注明拟转载公众号/网站名称、主理者基本信息、拟转载的文章标题等基本信息。
声明:本文来自清华大学智能法治研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。