作者|曹建峰 腾讯研究院高级研究员

      方龄曼 腾讯研究院法律研究中心助理研究员

欧盟积极推进以人为本的人工智能伦理与治理

数字技术的发展和渗透加速了社会与经济的转型变革,人工智能(AI)作为其中的核心驱动力为社会发展创造了更多可能。一般而言,AI是指基于一定信息内容的投入实现自主学习、决策和执行的算法或者机器,其发展是建立在计算机处理能力提高、算法改进以及数据的指数级增长的基础上。从机器翻译到图像识别再到艺术作品的合成创作,AI的各式应用开始走进我们的日常生活。当今,AI技术被广泛运用于不同行业领域(如教育、金融、建筑和交通等),并用于提供不同服务(如自动驾驶、AI医疗诊断等),深刻变革着人类社会。与此同时,AI的发展也对法律、伦理、社会等提出挑战,带来了假新闻、算法偏见、隐私侵犯、数据保护、网络安全等问题。在此背景下,人工智能伦理与治理日益受到重视,从政府到行业再到学术界,全球掀起了一股探索制定人工智能伦理准则的热潮。而欧盟从2015年起就在积极探索人工智能伦理与治理举措,虽然在AI技术的发展上没能先发制人,AI治理方面却走在了世界前沿。

早在2015年1月,欧盟议会法律事务委员会(JURI)就决定成立专门研究机器人和人工智能发展相关法律问题的工作小组。2016年5月,JURI发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》(Draft Report with Recommendations to the Commission on Civil LawRules on Robotics),呼吁欧盟委员会评估人工智能的影响,并在2017年1月正式就机器人民事立法提出了广泛的建议,提出制定「机器人宪章」。[1]2017年5月,欧洲经济与社会委员会(EESC)发布了一份关于AI的意见,指出AI给伦理、安全、隐私等11个领域带来的机遇和挑战,倡议制定AI伦理规范,建立AI监控和认证的标准系统。[2]同年10月,欧洲理事会指出欧盟应具有应对人工智能新趋势的紧迫感,确保高水平的数据保护、数字权利和相关伦理标准的制定,并邀请欧盟委员会在2018年初提出应对人工智能新趋势的方法。[3]为解决人工智能发展和应用引发的伦理问题,欧盟已将AI伦理与治理确立为未来立法工作的重点内容。

2018年4月25日,欧盟委员会发布政策文件《欧盟人工智能》(Artificial Intelligent for Europe),欧盟人工智能战略姗姗来迟。该战略提出以人为本的AI发展路径,旨在提升欧盟科研水平和产业能力,应对人工智能和机器人带来的技术、伦理、法律等方面的挑战,让人工智能更好地服务于欧洲社会和经济的发展。欧盟人工智能战略包括三大支柱:其一、提升技术和产业能力,促进人工智能技术广泛渗透到各行各业;其二、积极应对社会经济变革,让教育和培训体系跟上时代发展的步伐,密切监测劳动力市场的变化,为过渡期劳动者提供支持,培养多元化、跨学科人才;其三、建立适当的伦理和法律框架,阐明产品规则的适用,起草并制定人工智能伦理指南(AI ethics guidelines)。[4]同年6月,欧盟委员会任命52名来自学术界、产业界和民间社会的代表,共同组成人工智能高级专家小组(High-Level Expert Group on AI,简称AI HELP),以支撑欧洲人工智能战略的执行。

2019年1月,欧盟议会下属的产业、研究与能源委员会发布报告,呼吁欧盟议会针对人工智能和机器人制定全方位的欧盟产业政策,其中涉及网络安全、人工智能和机器人的法律框架、伦理、治理等。[5]2019年4月,欧盟先后发布了两份重要文件——《可信AI伦理指南》(Ethics Guidelines for Trustworthy AI,简称「伦理指南」)[6]和《算法责任与透明治理框架》(A governance framework for algorithmic accountability andtransparency,简称「治理框架」)[7],系欧盟人工智能战略提出的「建立适当的伦理和法律框架」要求的具体落实,为后需相关规则的制定提供参考,代表欧盟推动AI治理的最新努力。

人工智能伦理框架建构:可信AI的伦理指南

为平衡技术创新和人权保障,人工智能伦理框架的构建必不可少。伦理框架为人工智能的设计、研发、生产和利用提供原则指导和基本要求,确保其运行符合法律、安全和伦理等标准。《伦理指南》由AI HELP起草发布,并不具备强制约束力,而欧盟鼓励各利益攸关方积极执行《伦理指南》,促进AI伦理标准形成国际共识。总体而言,除了制定泛欧盟的伦理准则,欧盟希望人工智能的伦理治理能够在不同的层次得到保障。例如,成员国可以建立人工智能伦理监测和监督机构,鼓励企业在发展人工智能的时候设立伦理委员会并制定伦理指南以便引导、约束其AI研发者及其研发应用活动。这意味着人工智能的伦理治理不能停留在抽象原则的层面,而是需要融入不同主体、不同层次的实践活动中,成为有生命的机制。

根据《伦理指南》,可信AI必须具备但不限于三个特征:(1)合法性,即可信AI应尊重人的基本权利,符合现有法律的规定;(2)符合伦理,即可信AI应确保遵守伦理原则和价值观,符合「伦理目的」;(3)稳健性,即从技术或是社会发展的角度看,AI系统应是稳健可靠的,因为AI系统即使符合伦理目的,如果缺乏可靠技术的支撑,其在无意中依旧可能给人类造成伤害。具体而言,可信AI的伦理框架包括以下三个层次:

(一)可信AI的根基

在国际人权法、欧盟宪章和相关条约规定的基本权利中,可作为AI发展要求的主要包括:人格尊严、人身自由、民主、正义和法律、平等无歧视和团结一致、公民合法权利等。许多公共、私人组织从基本权利中汲取灵感,为人工智能系统制定伦理框架。例如,欧洲科学和新技术伦理小组(EGE)基于欧盟宪章和相关规定中的价值观,提出了9项基本原则。《伦理指南》在借鉴绝大部分已有原则的基础上,进一步归纳总结出符合社会发展要求的4项伦理原则,并将其作为可信AI的根基,为AI的开发、部署和使用提供指导。

这些原则包括:(1)尊重人类自主性原则。与AI交互的人类必须拥有充分且有效的自我决定的能力,AI系统应当遵循以人为本的理念,用于服务人类、增强人类的认知并提升人类的技能。(2)防止损害原则。AI系统不能给人类带来负面影响,AI系统及其运行环境必须是安全的,AI技术必须是稳健且应确保不被恶意使用。(3)公平原则。AI系统的开发、部署和使用既要坚持实质公平又要保证程序公平,应确保利益和成本的平等分配、个人及群体免受歧视和偏见。此外,受AI及其运营者所做的决定影响的个体均有提出异议并寻求救济的权利。(4)可解释原则。AI系统的功能和目的必须保证公开透明,AI决策过程在可能的范围内需要向受决策结果直接或间接影响的人解释。

(二)可信AI的实现

在AI伦理原则的指导下,《伦理指南》提出AI系统的开发、部署和利用应满足的7项关键要求。具体而言,在《伦理指南》中4项伦理原则作为顶层的伦理价值将对可信AI的研发与应用发挥最基本的指导作用,但7项关键要求则是可以落地的伦理要求。这意味着人工智能伦理是一个从宏观的顶层价值到中观的伦理要求再到微观的技术实现的治理过程。

1、人类的能动性和监督

首先,AI应当有助于人类行使基本权利。因技术能力范围所限AI存在损害基本权利可能性时,在AI系统开发前应当完成基本权利影响评估,并且应当通过建立外部反馈机制了解AI系统对基本权利的可能影响。其次,AI应当支持个体基于目标作出更明智的决定,个体自主性不应当受AI自动决策系统的影响。最后,建立适当的监督机制,例如「human-in-the-loop」(即在AI系统的每个决策周期都可人为干预),「human-on-the-loop」(即在AI系统设计周期进行人工干预),以及和「human-in-command」(监督AI的整体活动及影响并决定是否使用)。

2、技术稳健性和安全

一方面,要确保AI系统是准确、可靠且可被重复实验的,提升AI系统决策的准确率,完善评估机制,及时减少系统错误预测带来的意外风险。另一方面,严格保护AI系统,防止漏洞、黑客恶意攻击;开发和测试安全措施,最大限度地减少意外后果和错误,在系统出现问题时有可执行的后备计划。

3、隐私和数据治理

在AI系统整个生命周期内必须严格保护用户隐私和数据,确保收集到的信息不被非法利用。在剔除数据中错误、不准确和有偏见的成分的同时必须确保数据的完整性,记录AI数据处理的全流程。加强数据访问协议的管理,严格控制数据访问和流动的条件。

4、透明性

应确保AI决策的数据集、过程和结果的可追溯性,保证AI的决策结果可被人类理解和追踪。当AI系统决策结果对个体产生重大影响时,应就AI系统的决策过程进行适当且及时的解释。提升用户对于AI系统的整体理解,让其明白与AI系统之间的交互活动,如实告知AI系统的精确度和局限性。

5、多样性、非歧视和公平

避免AI系统对弱势和边缘群体造成偏见和歧视,应以用户为中心并允许任何人使用AI产品或接受服务。遵循通用设计原则和相关的可访性标准,满足最广泛的用户需求。同时,应当促多样性,允许相关利益相关者参与到AI整个生命周期。

6、社会和环境福祉

鼓励AI系统负担起促进可持续发展和保护生态环境的责任,利用AI系统研究、解决全球关注问题。理想情况下,AI系统应该造福于当代和后代。因此AI系统的开发、利用和部署应当充分考虑其对环境、社会甚至民主政治的影响。

7、问责制

其一,应建立问责机制,落实AI系统开发、部署和使用全过程的责任主体。其二,建立AI系统的审计机制,实现对算法、数据和设计过程评估。其三,识别、记录并最小化AI系统对个人的潜在负面影响,当AI系统产生不公正结果时,及时采取适当的补救措施。

值得注意的是,不同的原则和要求由于涉及到不同利益和价值观,互相间可能存在本质上的紧张关系,因此决策者需要根据实际情况作出权衡,同时保持对所做选择的持续性记录、评估和沟通。此外,《伦理指南》还提出了一些技术和非技术的方法来确保AI的开发、部署和使用满足以上要求,如研究开发可解释的AI技术(Explainable AI,简称XAI)、训练监控模型、构建AI监督法律框架、建立健全相关行业准则、技术标准和认证标准、教育提升公众伦理意识等。

(三)可信的AI的评估

《伦理指南》在前述7项关键要求的基础上,还列出了一份可信AI的评估清单。评估清单主要适用于与人类发生交互活动的AI系统,旨在为具体落实7项关键要求提供指导,帮助公司或组织内不同层级如管理层、法务部门、研发部门、质量控制部门、HR、采购、日常运营等共同确保可信AI的实现。《伦理指南》指出,该清单的列举评估事项并不总是详尽无遗,可信AI的构建需要不断完善AI要求并寻求解决问题的新方案,各利益攸关方应积极参与,确保AI系统在全生命周期内安全、稳健、合法且符合伦理地运行,并最终造福于人类。

可见,在欧盟看来,人工智能伦理是一项系统性的工程,需要伦理规范和技术方案之间的耦合。其他国家和国际社会的人工智能伦理构建可能多数还停留在抽象价值的提取和共识构建阶段,但欧盟已经更进一步,开始探索搭建自上而下的人工智能伦理治理框架。

人工智能算法治理的政策建议:算法责任与透明治理框架

《治理框架》是由欧洲议会未来与科学和技术小组(STOA)发布的一份关于算法透明和责任治理的系统性研究报告。报告在引用一系列现实案例的基础上,阐明不公平算法产生的原因及其可能导致的后果,以及在特定背景下实现算法公平所存在的阻碍。在此基础上,报告提出将算法透明和责任治理作为解决算法公平问题的工具,实现算法公平是算法治理的目的,同时强调「负责任研究和创新」(RRI)方法在促进实现算法公平中的作用和意义。RRI的核心是在利益相关者的参与下,实现包容和负责任的创新。

该报告在分析算法系统为社会、技术和监管带来的挑战的基础上,为算法透明度和问责制的治理提出系统的的政策建议。报告从技术治理的高层次视角出发,详细论述各类型的治理选择,最后回顾现有文献中对算法系统治理的具体建议。在广泛审查和分析现有算法系统治理建议的基础上,报告提出了4个不同层面的政策建议。

(一)提升公众的算法素养

实现算法问责的前提是算法透明,算法透明并非指让公众了解算法的各个技术特征。报告指出,对算法功能的广泛理解对实现算法问责几乎没有作用,而简短、标准化且涉及可能影响公众决策或者提升公众对算法系统的整体理解的信息内容的披露才更为有效。此外,调查性新闻报道和揭密对于揭发算法的不当用途,实现算法透明和问责也发挥着重要作用。例如,纽约时报曾经报道Uber公司通过一定算法技术来标记和躲避城市的监管机构(此消息由Uber前员工透露),此报道当即引发了媒体和社会的广泛关注,监管部门也对该公司采取调查行动。除了发挥监督作用,新闻报道致力于用简单易懂的语言提升社会公众对算法的理解,新闻调查还可刺激广泛的社会对话和辩论,引发新的学术研究。例如,非盈利机构ProPublica的一篇关于一些美国法院使用的犯罪风险评估算法系统COMPAS中「机器偏见」的报告即引发了一系列关于算法公平的研究。

基于此,《治理框架》提出几点关于提升公众算法意识的政策建议:(1)教育公众理解关于算法选择、决策的核心概念;(2)标准化算法的强制披露内容;(3)为进行「算法问责」的新闻报道提供技术支持;(4)出于公共利益考虑允许揭秘人在违反服务条款或者侵犯知识产权情况下免于追究责任。

(二)公共部门建立算法问责机制

当今,越来越多公共部门开始使用算法系统以提高办公效率、支撑复杂的办公流程并辅助政策制定活动。若算法存在缺陷,则可能对社会中弱势群体造成不可估量的影响,因此公共部门格外需要建立完善的算法透明和问责机制。其中一个可以考虑的治理机制是,借鉴数据保护法上的数据保护影响评估(DPIA)机制,建立算法影响评估(Algorithmic impactassessments,即AIA)机制。此机制可以让政策制定者了解算法系统的使用场景,评估算法预期用途并提出相关建议,帮助建立算法问责机制。根据《治理框架》,AIA的流程主要包括:公布公共部门对「算法系统」的定义,公开披露算法的目的、范围、预期用途、相关政策或实践,执行和发布算法系统的自我评估,公众参与,公布算法评估结果,定期更新AIA等。

(三)完善监管机制和法律责任制度

一方面,对于各界广泛呼吁但存在巨大争议的算法透明,欧盟从人工智能技术自身的特征出发提出了较为中肯的建议。算法透明不是对算法的每一个步骤、算法的技术原理和实现细节进行解释,简单公开算法系统的源代码也不能提供有效的透明度,反倒可能威胁数据隐私或影响技术安全应用。更进一步,考虑到AI的技术特征,理解AI系统整体是异常困难的,对理解AI作出的某个特定决策也收效甚微。所以,对于现代AI系统,通过解释某个结果如何得出而实现透明将面临巨大的技术挑战,也会极大限制AI的应用;相反,在AI系统的行为和决策上实现有效透明将更可取,也能提供显著的效益。例如,考虑到人工智能的技术特征,GDPR并没有要求对特定自动化决策进行解释,而仅要求提供关于内在逻辑的有意义的信息,并解释自动化决策的重要性和预想的后果。

另一方面,在人工智能算法监管方面,欧盟认为,对于大多数私营部门而言,其资源是有限的,且其算法决策结果对社会公众的影响相对有限,所以不应施加算法影响评估等强监管。如果一味要求私营部门采取AIA,结果就是其负担的财务和行政成本与算法所带来的风险将不成比例,这将阻碍私营部门的技术创新和技术采纳。因此,对于低风险的算法系统可以以法律责任去规制,允许私营部门以更严格的侵权责任换取算法更低的透明度及AIA要求。根据《治理框架》,可以分层次建立相应的监管机制:对于可能引发严重或是不可逆后果的算法决策系统可以考虑施加AIA要求;对于仅具有一般影响的算法系统,则可要求系统操作者承担较为严格的侵权责任,同时可以减轻其评估认证算法系统、保证系统符合最佳标准的义务。同时可考虑建立专门的算法监管机构,其职责包括进行算法风险评估,调查涉嫌侵权人的算法系统的使用情况,为其他监管机构提供关于算法系统的建议,与标准制定组织、行业和民间社会协调确定相关标准和最佳实践等。

(四)加强算法治理的国际合作

算法系统的管理和运行还需要跨境对话和协作。一国对算法透明度和问责制的监管干预很可能被解释为保护主义或视为获取外国商业机密的不当行为。因此,《治理框架》建议,应当建立一个永久性的全球算法治理论坛(AGF),吸纳与算法技术相关的多方利益攸关者参与国际对话,交流政策及专业知识,讨论和协调算法治理的最佳实践。

欧盟人工智能伦理与治理的启示

在过去二十多年的互联网发展中,欧盟落后于美国和中国,法律政策方面的差异是其中的主要因素之一。正如笔者在《论互联网创新与监管之关系——基于美欧日韩对比的视角》一文中的观点,欧盟在平台责任、隐私保护、网络版权等方面的制度规定都比美国更早和更严格,没有给互联网创新提供适宜的法律制度土壤。如今,步入智能时代,无处不在的数据和算法正在催生一种新型的人工智能驱动的经济和社会形式,欧盟在人工智能领域依然落后于美国等国家。去年生效的《一般数据保护条例》(GDPR)对人工智能发展应用的影响尤甚,诸多研究都表明GDPR阻碍了人工智能、数字经济等新技术、新事物在欧盟的发展,给企业经营增加了过重的负担和不确定性。[8]

回到人工智能领域,欧盟希望通过战略、产业政策、伦理框架、治理机制、法律框架等制度构建来研发、应用、部署嵌入了伦理价值的人工智能,以此引领国际舞台。在这方面,欧盟的确有其独特的优势。但这样的优势能否最终转化为欧盟在人工智能领域的国际竞争力,却值得深思。整体而言,欧盟的人工智能伦理与治理探索,带给我们三点启发。

(一)探索伦理治理的技术路径

显然,面对人工智能未来发展的伦理与社会影响,需要让伦理成为人工智能研究与发展的根本组成部分,加强人工智能伦理研究和伦理治理机制的构建。就当前而言,人工智能伦理治理的实现,更多需要依靠行业和技术的力量,而非诉诸立法和监管。因为技术和商业模式快速迭代,成文的立法和监管很难跟上技术发展步伐,可能带来适得其反或者意想不到的效果,而标准、行业自律、伦理框架、最佳实践、技术指南等更具弹性的治理方式将越来越重要,尤其是在技术发展早期。更进一步,正如在隐私和数据保护方面,经由设计的隐私(privacy by design,简称PbD)理念在过去十几年获得了强大的生命力,使得通过技术和设计保护个人隐私成为数据保护机制中不可或缺的组成部分,加密、匿名化、差分隐私等技术机制发挥着重要的作用。这样的理念也可以移植到人工智能领域,所以欧盟提出了「经由设计的伦理」(ethics by design或者ethical by design,简称EbD)。未来需要通过标准、技术指南、设计准则等方式来赋予「经由设计的伦理」理念以生命力,从而将伦理价值和要求转化为人工智能产品和服务设计中的构成要素,将价值植入技术。

(二)采取多利益相关方协同治理的模式

当前,人工智能与经济、社会以异乎寻常的速度整合和相互构建,其高度的专业化、技术化和复杂性使得圈外人很难对其中的风险和不确定性有准确的判断和认知。因此,一方面需要通过多利益相关方协同参与的方式,让监管机构、决策者、学术界、行业、社会公共机构、专家、从业者、公众等都能参与到新技术治理中来,避免决策者和从业者脱节。另一方面需要通过科技伦理教育宣传增进科研人员和社会公众在伦理上的自觉,使其不仅仅考虑狭隘的经济利益,而且对技术发展应用的潜在影响及其防范进行反思和预警性思考(precautionary thinking),才有可能通过广泛社会参与和跨学科研究的方式来实现对前沿技术的良好治理。所以,欧盟认为对于人工智能的伦理治理,需要不同主体在不同层次的保障措施,因此需要政府、行业、公众等主体在各自的层级建立保障措施。

(三)加强人工智能伦理与治理方面的国际合作

人工智能的发展与数据流动、数据经济、数字经济、网络安全等密切相关,而且人工智能的研发应用具有跨国界、国际分工等特征,需要在伦理与治理方面加强国际协作和协调。例如,2019年5月22日,OECD成员国批准了人工智能原则即《负责任地管理可信赖的AI的原则》,该伦理原则总共有五项,包括包容性增长、可持续发展和福祉,以人为本的价值和公平,透明性和可解释,稳健性和安全可靠,以及责任。[9]2019年6月9日,G20批准了以人为本的AI原则,主要内容来源于OECD人工智能原则。这是首个由各国政府签署的AI原则,有望成为今后的国际标准,旨在在以人为本的发展理念之下,以兼具实用性和灵活性的标准和敏捷灵活的治理方式推动人工智能发展,共同促进AI知识的共享和可信AI的构建。[10]可见,以人为本的人工智能发展理念正在获得国际社会的共识,需要在此理念的引领下,加深国际对话和交流,在国际层面实现相协调的共同人工智能伦理与治理框架,促进可信的、符合伦理道德的人工智能的研发与应用,防范人工智能发展应用可能带来的国际风险和其他风险,确保科技向善和人工智能造福人类。

参考文献:

[1]http://www.europarl.europa.eu/doceo/document/A-8-2017-0005_EN.html?redirect

[2]https://www.eesc.europa.eu/en/our-work/opinions-information-reports/opinions/artificial-intelligence

[3]https://www.consilium.europa.eu/media/21620/19-euco-final-conclusions-en.pdf

[4]https://ec.europa.eu/digital-single-market/en/news/communication-artificial-intelligence-europe

[5]https://www.europarl.europa.eu/doceo/document/A-8-2019-0019_EN.html#title2

[6]https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

[7]http://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2019)624262

[8]https://itif.org/publications/2019/06/17/what-evidence-shows-about-impact-gdpr-after-one-year

[9] https://www.oecd.org/going-digital/ai/principles/

[10]https://g20trade-digital.go.jp/dl/Ministerial_Statement_on_Trade_and_Digital_Economy.pdf

声明:本文来自腾讯研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。