摘要
欧盟人工智能高级别专家组于 2019 年 6 月 26 日公布了《可信人工智能的政策和投资建议》, 该报告是由欧盟人工智能高级别专家组编写的第二份文件。报告共分为三章:
前两章分别聚焦可信人工智能产生有益影响的四个领域和推动可信人工智能发展的四个因素,并提出 33 项建议,以指导可信人工智能实现可持续、可增长、有竞争、可包容的发展,同时赋能并造福和保护人类;
第三章回顾总结了本报告的主要内容。报告指出,当前欧洲正处于第三次数字化浪潮中,这次数字化浪潮的特点是人工智能技术的应用。
然而,人工智能的部署既可以增进人类的福祉,也可能带来潜在的危害。报告旨在使欧洲在最大限度上从人工智能应用中获益的同时,有效预防和化解风险。
欧盟委员会发布了一系列关于人工智能的文件,并阐述了其对人工智能的美好愿景—— 可信赖且以人为本。这一愿景主要由三个方面作为支撑:
增加人工智能投资(包括公共投资和私人投资);
准备好应对社会经济变化;
确立相应的伦理和法律框架。
为实现这一愿景, 欧盟委员会成立了一个独立的人工智能高级别专家组,负责起草两份文件:一份伦理准则、一份政策和投资建议。
2019 年 4 月 8 日,专家组发布了“可信人工智能伦理准则”(简称“伦理准则”)。
伦理准则指出,人工智能系统要以人为本,以改善个人和社会福祉为目标,并且是可信赖的, 也即要求人工智能的全流程及其参与者都是合理合法有力的。
伦理准则是识别人工智能类型的重要依据,但它还不足以确保欧盟能够具化可信人工智能带来的一切有益影响。
本报告是专家组向欧盟机构和成员国提出的关于可信人工智能的政策和投资建议。在伦理准则的基础上,专家组提出了 33 项建议,以指导可信人工智能实现可持续、可增长、有竞争、可包容的发展,同时赋能并造福和保护人类。
不论是作为数据经济的关键参与者、可信人工智能系统的采购者,或是作为可信人工智能治理标准的制定者,欧盟机构和成员国都将发挥关键作用。
本报告的建议侧重于可信人工智能可以具化有益影响的四个主要领域,即社会领域、私营部门领域、公共部门领域和学术研究领域。
此外,还探讨了具化这些有益影响所需的主要动因,分别是国家基础设施、技能和教育、治理和监管以及筹资和投资。
这些建议不是详尽无遗的,但力求在最关键的行动领域发挥最大的潜能。欧洲可以通过开发、部署、使用和扩展可信人工智能来将自己与其他国家和地区区分开来。专家组相信, 可信人工智能将是欧洲唯一的既能增进个人幸福又能增进社会福祉的人工智能系统。
推动可信人工智能在欧洲产生积极的影响
在本章中,专家组侧重于四个特别值得关注的主要领域。
1.1社会领域:赋能并保护人类和社会
用人工智能创建未来,起点是以人为本。需要强调的是,人工智能本身并不是目的,而是增进人类福祉和自由的一种手段。
然而,以人为本不仅意味着对个人的关注,而且也意味对人类生活环境的关注。人工智能为增进个人和社会福祉提供了一种新手段,但它同时也给人和社会带来风险,需要加以识别和解决。
因此, 需要培养能够为人类赋能的人工智能解决方案, 评估该方案的后续影响,确保其在实施过程中能够维护权利并传播正确的价值观。
1.1.1提升对人工智能的了解和认知
全社会都应该认识到人工智能应用的可能性和局限性,一方面在全社会广泛开展人工智能教育,将人工智能课程纳入教育系统;另一方面加强人工智能技能培训。
此外,还可以设立人工智能宣传日,以增强人工智能的影响力。
1.1.2维护人类、社会及环境的公平
人工智能为维护公共和私营部门、个人隐私以及环境的公平提供了工具,但应避免对个人的过度监视,同时加强对市场行为的监督, 充分考虑企业与个人之间的权力不对称,引入人工智能系统的强制性自我识别,提出人工智能解决方案,以应对可持续性挑战。
1.1.3推进以人为本的人工智能工作理念
一方面让员工参与到人工智能系统的研究、开发和部署中,确保系统可用的同时保证员工仍然具有足够的自主权和较高的工作满意度;
另一方面,通过加强对员工的新技能培训、建立过渡基金等方式,帮助员工在智能经济时代实现转型。
1.1.4确保人工智能成果普惠所有人
人工智能的开发和应用应当考虑到全社会, 老年人、儿童、残疾人等弱势群体不应被排斥在外,而应当鼓励开发专门用于帮助弱势人口的人工智能工具和应用程序。
1.1.5实时监测人工智能所产生的社会影响
一方面,鼓励对人工智能的社会影响进行评估和研究;
另一方面,建立多层次的监测机制, 如欧盟和国家级、民间级的监测机制等。
1.2私营部门领域:推动私营部门转型
尽管欧洲企业期望人工智能能够产生巨大影响,但只有少数企业积极使用人工智能。为改变这一现状,必须推动私营部门转型。
1.2.1促进对人工智能技术和服务的吸收
通过畅通资金渠道,提供转型建议,提供法律支持、技术支持以及必要的人工智能培训等方式,来促进私营企业转型。
1.2.2促进创新和技术转让
一方面,分别促进研究领域的技术创新和人工智能技术公司的发展成长;另一方面,将学术研究与技术应用紧密结合,促进研究成果向工业应用转化。
1.2.3建立公私(政企)伙伴关系,推进人工智能系统建设
在短期内,对选定的人工智能系统分领域、分部门进行深入分析;中期而言,为战略部门建立部门性利益相关者联盟,以促进人工智能系统建设。
1.3公共部门领域:发挥可持续增长和创新的推动作用
欧洲公共部门具有很强大的功能,将对可信人工智能的利用、发展及市场建设发挥重要作用。
1.3.1为个人提供以人为本的人工智能服务
落实“塔林电子政府宣言”,并建立相应机制,在各级公共管理中,为所有个人和企业提供无边界、交互性、个性化、用户友好和端到端的数字公共服务,保证这种公共服务能够覆盖到所有人。
1.3.2以政府为平台,推动人工智能发展
建立公共数据库、将公共数据转换成数字格式以促进数字化、提高数据的重新利用率。此外,向政府机构提供数据扫盲教育,提升公务员的数据处理能力。
1.3.3利用公共采购来资助创新并促进可信人工智能建设
在公共采购过程中,为创新驱动的人工智能解决方案配置充足资金;在采购过程中,应在查明、评估后,适当处理政府使用人工智能的潜在风险;在欧盟机构的采购规则和程序中引入明确的选择标准和资格。
1.3.4保障人工智能公共服务的基本权利、保护社会基础设施
确保将“可信人工智能伦理准则”应用于公共部门部署的人工智能系统;保证个人对政府关于人工智能决策信息的知情权;资助人工智能工具的开发,及时发现并解决政府决策中的不当偏见;根据伦理准则的要求,禁止使用人工智能对个人的民主权利造成侵害。
1.4学术研究领域:确保世界级研究能力
欧洲须建设成为人工智能发展的领头人, 其首要目标是具备世界一流的研究能力,为可信人工智能的可持续、可增长、有竞争及可包容的发展做出贡献,进而促进个人和社会福祉。
1.4.1为人工智能战略制定欧洲研究路线图
路线图应包括重大的开放性学科、跨学科的基本科学问题,全球相关性的重大挑战等, 重点聚焦具有战略价值和机会的领域,特别关注符合可信人工智能原则和要求的人工智能解决方案的研究,还应根据新的事态发展制定和定期更新路线图。此外,路线图在确保科学独立的同时,还应通过与公众的广泛接触,以确保满足个体的需要。
1.4.2增加和精简基础研究和目标驱动研究的资金
持续提供专项研究资金,以保持欧洲的研究能力和公司的竞争力,同时应对相关的社会和工业挑战;
为跨学科和多利益相关方的研究提供鼓励和支持;
精简研究经费仪器的申请流程;
建立产学研混合转移实验室,主要由产学研资助,为企业提供专项研究,同时为更广泛研究领域的长期开放研究与合作提供资金;
对人工智能相关的“地平线欧洲”和“数字欧洲”方案的资助倡议,应建立相应的保障措施和条件,以确保这些项目的公共资金能够惠及公众利益。
1.4.3通过培养、吸引并留住人工智能研究人员,扩大欧洲的人工智能研究能力
首先要意识到需要采取综合战略,为人才创造一个具有吸引力的研究环境;
不仅要为研究人员与创业公司、大型公司和组织以及整个社会之间的合作提供便利,还要鼓励学术界的研究人员与工业界和公共部门合作;
创造一种开放的创新文化,围绕世界一流研究中心,建立活跃的、多学科交融的研究环境。
1.4.4培养世界级的欧洲研究能力
加紧建设英才中心,以欧洲的人工智能研究中心和实验室为基础,加大资金投入,将竞争范围扩展至全球,建成全球英才中心,同时构建专门的跨领域人工智能研究发展网络;加强与利益相关方的合作,在人工智能领域创建专门的公私伙伴关系 (PPP)。
利用欧洲的有利因素实现可信人工智能
为了使前述四个领域的影响能够具化,还需要从以下四个方面着手:
构建数据和基础设施
发展教育和培养技能
建立适当的治理和监管框架
筹资和投资
2.1构建数据和基础设施
促进可信人工智能的发展和吸收需要有数据和健全的基础设施。这需要对基础设施、数据、软件和网络进行投资。
2.1.1支持各成员国的人工智能基础设施建设
投资于必要的高强度计算人工智能架构, 扩展欧洲人工智能建设的宏图,其中既包括数字人工智能部分,也涉及嵌入数字组件的物理部分。
2.1.2在欧洲制定符合伦理和法律要求的数据管理与共享举措
为人工智能建立国家级和欧洲级的数据平台,包括:
用于数据治理、注释、存储、下一代网络、分析软件,以及数据集等所有的必要工具;
为欧盟数据存储库设置通用注释和标准;支持快速、安全及合法的工业数据共享;
为特定部门( 如医疗保健、汽车和农业食品 ) 建立可信的数据空间;
建立个人数据保护机制;
建立数据捐助计划, 同时有透明的治理机制和隐私保护的相关保障措施;
采用公平、合理和非歧视性的数据访问制度。
2.1.3支持欧洲在开发人工智能基础设施方面的领导作用
支持开发开源人工智能软件库,推动构建欧洲互联设备和物联网(IoT)硬件与计算基础设施的前沿研究、创新和商业开发机制。
2.1.4开发和支持专门针对人工智能的网络安全基础设施
依据欧盟于 2019 年春季通过的网络安全法案,加强基础设施建设,以保护网络、数据和用户,规避风险;
开发以用户为中心的人工智能网络安全策略,以保护用户的在线权利;
采取全面的数字安全办法,解决恶意软件和漏洞的风险;
投资于人工智能支持的网络保护系统, 确保整个数据传输系统更加安全。
2.2发展教育和培养技能
欧洲人工智能系统的发展需要大量的人类智力投入,这就需要更多的人才来加入基础研究项目,并以优厚的研究工作条件留住他们;同时需要加大对人工智能人力资源的投资,培养必要的技能和教育。
2.2.1重新设计从学前教育到高等教育的教育体系
调整国家教育制度,增强儿童在关键技能方面的能力,在小学和中学教育的必修信通技术和数字扫盲班中开设必修课程,将欧洲教育工作者数字能力框架引向各级教育的教育工作者;提倡性别平等;支持和鼓励青年人选择人工智能及其相关领域为业,提供就业指导服务 ( 例如推荐系统 ),鼓励人们依据个人能力水平选择不同的教育。
2.2.2培养并留住欧洲高等教育体系中的人才
加强与可信人工智能英才中心、欧盟成员国大学的合作,推出跨学校多学科的人工智能课程;与此同时,加强科研机构与企业的合作,加强研究人员与应用领域专业人员之间的合作。
2.2.3提高妇女在科学技术工作中的比例
在所有人工智能政策中优先考虑性别平等,吸引女性人才投入人工智能及其相关领域;将人文、社会科学和性别研究纳入人工智能研究方案,以增加多样性,并着力解决算法决策中的性别偏见。
2.2.4加强员工技能培训,提升员工能力
为所有人创造持续学习的权利和机会,并通过法律或集体协议予以落实;制定全新就业政策,支持和鼓励公司进行人工智能战略升级。
此外,将欧洲计算机扫盲方案升级为人工智能扫盲方案。
2.2.5为技能政策提供利益相关者自主意识和决策支持
提高欧盟和成员国决策机构对人工智能的了解和认知;
促进先进技能和工作预测算法的发展,以预测和及时应对就业市场的变化;
加强或发展强有力的培训和职业指导制度;
将人工智能的伦理意识纳入欧洲现有的倡议和网络中;
人工智能技术教育方面,在公共采购过程中,将嵌入式利益、伦理和社会影响的评估涵括在内。
2.3建立适当的治理和监管框架
确保一个具有社会价值、尊重基本人权、追求法治与民主的治理和监管框架来推动可信人工智能建设。
2.3.1制定适当的政策
总体上采用基于风险的监管方法;对于产生“不可接受”风险或构成重大损害威胁的具体人工智能应用程序,应采用基于预防原则的方法;
充分考虑人工智能决策中的自主意识水平 , 以及在制定和更新人工智能系统政策措施时的学习自主性;
建立一种基于基本原则的监管方式;在进一步制定人工智能监管框架时,考虑采用一种针对具体部门的方法。
2.3.2评估并修订欧盟法律
对所有与人工智能系统特别相关的欧盟现行法律进行系统的评估;分别在民事责任、刑事责任、消费者权益保护规则、数据安全规则、网络安全规则、竞争规则等方面评估制定与人工智能有关的条款。
2.3.3根据需要制定新的条例
审查是否有必要制定新的条例,以解决伦理准则中列出的值得信赖的人工智能的关键问题;监测和限制致命性自动武器的发展;
监测个性化人工智能系统的发展,确保其与基本权利、民主和法治保持一致;
对于私营部门部署可能对人的生命产生重大影响的人工智能系统, 考虑是否需要引入相关保护条款。
2.3.4根据需要修订现有体制结构、权能和职责
对监管措施进行更系统的监测和定期事后评估,采取快捷的决策解决方案,将人工智能政策与受影响的利益相关方的对话制度化,为人工智能系统建立审计机制,确立侵权补救机制,避免为人工智能系统或机器人确立法人资格。
2.3.5在欧洲建立可信人工智能市场的治理机制
协调管理,确定欧盟一级的统一治理规则和机制;
制定一项较为全面的成员国合作战略, 促进可信人工智能标准的协调;
为利益相关方制定应用指南,制定人工智能系统的系列认证机制,并评估技术标准和其他标准化措施的必要性。
2.4筹资和投资
资本的可获得性对于市场的快速扩张至关重要。欧洲机构和成员国与私营部门一道,必须为欧洲可信人工智能创造有利的筹资和投资环境。
2.4.1
确保提供充足资金,在本报告中,前述多条建议都要求欧盟与成员国共同建立专项供资机制,如过渡基金、利益相关者联盟建设、基础研究领域、基础设施建设等都必须确保充足的资金投入。
2.4.2应对市场的投资挑战
采取欧盟一级的专项行动,在国家之间建立协同机制,鼓励新的公共投资举措,调动、利用私人投资;
鼓励成员国建立和扩大欧盟数字欧洲方案倡议中提议的测试和试验设施;
为更大规模的市场交易提供融资渠道,帮助传统公司在数字经济中成长、扩大规模;
建立欧洲人工智能投资者联盟,召集公司承诺为欧洲人工智能生态系统提供资金并进行投资。
2.4.3创造一个开放和可盈利的投资环境, 以鼓励可信人工智能的发展
鼓励欧盟与欧洲投资银行等欧洲金融机构合作,制定基于“伦理准则”的投资指南,以实现可持续的商业发展;确保欧盟保持一种开放的经济形态,为创新者和投资者提供一个可盈利的投资环境。
结论
欧洲对人工智能采取以人为本的方式是其首要目标。本报告提出了一套政策和投资建议, 阐明如何在欧洲开发、部署、培育和扩展可信人工智能,最大限度地发挥其效益的同时,尽量规避其风险。
再次强调,可信人工智能本身并不是目的, 而是可以提高个人和社会福祉的一种手段。为此,专家组向欧盟机构和成员国提出了上诉共计 33 项具体建议,并列出了报告中的要点。
3.1赋能并保护人类和社会
利用可信人工智能来增进个人和社会福祉需要一些重要的先决条件,特别是赋能并保护人类和社会方面。
首先,个人需要知晓和领会人工智能的潜能、局限性和相关影响。
其次, 为使用这项技术,人们必须接受必要的知识和技能教育,以确保他们能够真正从中受益,并且准备好应对因人工智能系统而发生改变的工作环境。
第三,人类需要有足够的安全保障, 以避免人工智能可能带来的负面影响。
3.2欧洲人工智能建设须采取因地制宜的措施
在欧洲环境中思考人工智能发展时,决策者必须采用因地制宜的措施。他们应该考虑“大局”,注重人工智能对社会的整体影响和潜力, 同时理解人工智能解决方案在 B2C、B2B 和 P2C 环境中的敏感性,即人工智能既是数字产品和服务,也是嵌入在物理系统中的数字解决方案。
此外,还应分析利用跨部门建设的基本逻辑, 包括产生的影响、促进手段等治理措施。
3.3为可信人工智能建立单一欧洲市场
过去几十年中,欧洲取得的一项重大成就是建立了单一市场。伴随着人工智能创造的全新的经济和技术浪潮,必须把重点放在人工智能单一欧洲市场建设上。
这是一项涉及多方且较为复杂的工作,在避免市场分裂的同时,要在所有会员国中,保持对个人权利和自由的高度保护。
在全欧建立可信人工智能的公平竞争环境,可以通过消除障碍以获得合理合法有力的人工智能商品和服务,使个人和组织受益;同时通过大型单一市场的规模经济,确保欧洲在全球市场的竞争地位。
3.4通过利益相关方联盟构建人工智能系统
本报告的执行需要利益相关方的通力合作。只有联合起来,把民间社会、工业界、公共部门、学术研究领域等各界的专家、人才召集到一起, 才能有所作为。联合起来在部门基础上形成充满活力的人工智能系统,从而能够对具体的需求、挑战和机遇进行更加细致的分析,使人工智能在各自部门的利益合法化。
3.5发展欧洲数字经济
欧洲必须着力发展数字经济。数据驱动经济是欧盟未来在全球市场取得成功的基石,欧洲的相关组织需要采取一系列政策行动,包括数据访问、数据共享、数据使用、数据重用和数据互操作性等,以产生社会效益,在全球竞争中胜出。
与此同时也要确保个人隐私和数据保护,构建必要的基础设施,为欧洲开发和部署可信人工智能提供必要的条件。
3.6充分发挥公共部门作用
公共部门在引领欧洲未来发展方面发挥着至关重要的作用。它在确保基本权利不受侵犯的同时,能够利用其优势地位,为提供和推广可信人工智能系统发挥很大作用。公共采购的创新,不仅起到激励开发人工智能全新解决方案,并进而优化公共服务的作用,而且还可以不论企业规模大小,在所有企业中开发可信人工智能解决方案。
此外,对于召集利益相关方共谋发展、共创未来事项,公共部门将处于关键地位并发挥重要作用。
3.7整合并增强欧洲研究能力
欧洲必须将其分散于各领域的研究力量集中起来,以确立其在人工智能研究和应用领域的领导地位。
一是要加强人工智能英才中心建设,并促成各利益相关方的合作。
二是要为人工智能制定一份研究路线宏图。
三是要着眼于欧洲的优势、机遇和战略地位,在不断取得新进展和利益相关方多次磋商的基础上,不断更新路线图。
四是增加研究经费,为欧洲建立统一的人工智能研究能力,同时要培养并留住人工智能人才。
3.8发展教育并培养技能
可信人工智能宏图的实现需要足够深厚和广泛的技能基础来支撑。要求提高对人工智能潜能、挑战和局限性的认识,并发展跨领域和多学科视角的教育和技能培训,小学、中学和大学以及职业教育都应包含在内。
3.9建立适当的监管框架
为可信人工智能确立适当的治理和监管框架。本文提倡的是一种基于风险的方法,重点是采取适当且有效的行动来保护人工智能, 这必须合法、合理且有力,也并不侵犯基本权利。
一方面,要对欧盟相关的法律进行全面的评估, 确认这些法律是否仍然适用于人工智能驱动的社会。
另一方面,可采取新的法律措施和管理机制,以使可信人工智能的发展得到充分保护。
3.10建设开放和有利的投资环境
欧洲必须利用其有利的投资环境。“地平线欧洲”和“数字欧洲”方案的实施,为提升欧洲人工智能投资水平迈出了坚定的步伐,但仍有许多工作要做,只有取得私营部门的大力支持才能真正成功。
专家组坚信,推动建立利益相关者联盟,将政策制定者、行业界、学术界等各界专家和人才都包含在内,有助于确保投资到位,推动可信人工智能发展。
3.11采用一种整体的工作方式,将 10 年的长远愿景与短期的的行动计划结合起来
为实现目标,欧洲需要一个具有长远愿景的整体战略,以把握未来 10 年人工智能发展的机遇和挑战。
与此同时,还需要一个整体框架, 以便进行持续监测,在短期行动计划的基础上微调,将欧盟及其成员国关于人工智能的计划进行年度更新。不同经济实体之间的竞争,最重要的因素之一是具备持续、快速的应用和学习能力。
本报告连同早先发表的伦理准则都是这一持久战略的基础。然而,要使这些措施真正在欧洲发挥作用,就必须制订一项长期的后续计划。
展望
下一步,专家组将在 2019 年下半年采取以下具体措施:
对“可信人工智能伦理准则” 进行试点,以使其得到改进,并确保其 ( 部门间) 的相关性;
启动对部分人工智能部门的系统分析。
专家组认为,在本报告所提出建议的基础上,现在有必要解决应该为各个战略部门采取哪些有效行动,包括本报告中提到的所有影响领域和促成因素。
现有一个重要的机遇正在敲响欧洲的大门, 这个机会是人工智能赋予的,必须确保欧洲已经准备就绪,这需要即刻采取行动。专家组希望向欧洲的决策者传达一种紧迫感,也使下一步可信人工智能的建设动力十足。
作者简介:
欧盟人工智能高级别专家组,是欧盟委员会于 2018 年 6 月设立的独立专家小组,该专家组由学术界、民间社会和工业界的 52 位代表组成。专家组的总体目标是支持执行欧洲人工智能战略,包括就与人工智能相关的伦理、法律和社会问题及社会经济挑战,制定政策、提出建议等。
译者简介
史聪,上海社会科学院法学研究所硕士研究生,研究方向为经济法、科技法律政策。
(本文选自《信息安全与通信保密》2019年第九期)
声明:本文来自信息安全与通信保密杂志社,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。