自上世纪50年代人工智能概念诞生以来,全球人工智能发展经历了数次浪潮。本次浪潮由大数据、机器学习、高速网络、资本市场等多重因素共同推动,呈现出跨界融合、人机协同、自主操控等新特征。笔者认为,当前我国人工智能发展正处于从科技研发向产业形成过渡的关键时期,需要前瞻性探索和构建人工智能治理体系,对人工智能产业的健康发展形成有力支撑和保障。
从“互联网治理”到“人工智能治理”
互联网领域最先采用了“治理”的概念。1998年,全球范围互联网关键基础资源的管理者ICANN与美国商务部签订谅解备忘录,由ICANN协调和管理互联网数字分配机构IANA服务,实现对全球互联网号码资源的分配和根区管理。联合国互联网治理工作组(WGIG)2005年对互联网治理的阐释可有效反映“治理”一词的涵义,即“政府、私营部门和民间社会,根据各自的作用,制定和实施的、旨在规范互联网发展和运用的共同原则、规范、规则、决策程序和方案。”
与互联网相比,人工智能除了有渗透性强的共性特征,还具有数据量大、难以预测、难以控制的特点。一方面,人工智能依赖的核心技术是以深度学习为代表的机器算法,其产品和技术具备飞速的学习能力;另一方面,人工智能本身具有“黑箱化”的特征,机器通过自动运算输出结果,数据训练可能产生新的机器学习算法,导致产品和服务做出的决策难以预测和控制。总的来看,人工智能面临比互联网更多的未知因素,可能对监管机构、法律、伦理等均带来影响,需对相关治理议题进行前瞻性研究。
国内外人工智能治理相关探索
考虑到人工智能的特性和对治理体系带来的影响,美国、欧盟、英国、日本等发达国家在战略层面加快部署。
美国在顶层战略中考虑人工智能治理的应对策略。2016年,白宫连续发布三份白皮书(《国家人工智能研究和发展战略计划》、《为人工智能的未来做好准备》、《人工智能、自动化与经济》),从制度、细则、社会等方面提出应对人工智能变革的策略。
英国格外注重人工智能对伦理、法律等问题带来的挑战。2016年,英国下议院的科学和技术委员会发布了一份关于人工智能和机器人技术的报告,阐述了人工智能的发展与监管带来的潜在的伦理道德与法律挑战;英国政府发布了《人工智能:未来决策制定的机遇和影响》,阐述了人工智能的未来发展对英国社会和政府的影响。
联合国人工智能报告呼吁世界各国采用全新视角看待人工智能系统未来监管问题。2015年联合国教科文组织与世界科学知识与技术伦理委员会联合发布报告,讨论了人工智能的进步及其带来的社会与伦理道德问题。
目前我国也已在顶层战略中专门强调了建设人工智能治理体系的重要性。2017年7月,国务院印发了《新一代人工智能发展规划》,在战略目标中对法律和伦理体系建设提出了“三步走”的要求,对人工智能治理面临的责任划分、隐私产权保护等共性法律问题,以及自动驾驶、服务机器人等细分领域落地需要制定的安全法规进行了部署。
人工智能治理应重点考虑的要素
人工智能技术发展迅速,结合国际经验和人工智能产业发展的自身特点,对于如下治理问题需予以重点考虑。
一是业务准入和形态界定问题。人工智能涉及业务范围广泛,应用形态演进迅速,特定行业管理部门很难及时准确界定人工智能产品或服务范畴,确定监管对象和监管主体。以人工智能在金融领域的应用为例,欧洲三大金融监管机构、美国证券交易委员会(SEC)、中国证监会对“智能投资顾问”业务的界定各不相同,各国监管态度也有很大区别:美国、英国、香港、日本等国家和地区认为现有监管规则可直接适用于此业务模式;加拿大、澳大利亚已针对智能投顾出台专门指引或规范性文件;法国、荷兰、新加坡等国正在评估是否需要针对此项新业务出台补充性规则或保障性措施。总体来看,关于人工智能具体应用的监管,国际上普遍仍在探索过程中。
二是人工智能算法公平性问题。2016年,曾发生了谷歌图像识别软件将黑人错误标记为“黑猩猩”的事件,显示了机器算法设计可能带来对用户的歧视问题。实际上,人工智能算法的公平性贯穿于人工智能全生命周期:设计阶段,算法是否符合人类的伦理规范,关系到人们能否接受这项新生事物;运行阶段,算法是否能够预测和解释,关系到用户权益受到损害时如何追偿。为降低人工智能算法带来的公平性问题,美国在算法治理方面的经验值得借鉴:2016年美国白宫人工智能报告建议,人工智能从业者和学生都应接受伦理培训。特斯拉CEO马斯克等人于今年1月联合签署了“阿西洛马人工智能23条原则”,为人工智能产品和服务的算法设计和植入提供了指南。领军企业谷歌、IBM、微软等领军企业提出人工智能发展原则,成立人工智能伦理委员会,对算法进行自我审查。
三是人工智能中的个人隐私保护问题。人工智能算法的准确率高度依赖于海量用户数据的训练分析,尤其需要获取大量用户个人信息,以便提供个性化、定制化服务,这些都加大了用户个人信息泄露的风险。对于医疗等敏感数据,这项风险更加突出。2017年7月,谷歌DeepMind公司曾和英国NHS医疗服务机构联合开发一个名为Streams的智能手机应用程序而共享数据。作为与患者签订协议的一方,NHS并没有向患者明确他们的医疗信息将被如何使用,也没有询问患者是否同意DeepMind处理自己的医疗数据,它们之间的数据交易被英国信息专员办公室ICO认定为“没有遵守数据保护法案”。从这个案例可以看出,法律对于个人隐私保护的规定有助于保护个人合法权益,但也会限制具体产品或服务的研发应用,如何平衡二者关系,是政府和企业共同面临的问题。
四是人工智能产品责任问题。法律责任的划分和承担是人工智能发展面临的一大法律挑战,涉及如何确保人工智能产品和服务是可以被问责的。人工智能产品责任认定的复杂性在于,随着技术发展和算法演进,智能化产品的决策可能是难以预测、难以解释的,导致过错侵权责任的认定将变得更加困难。总的来看,商业保险和企业承诺可能是现阶段处理人工智能产品应用相关法律责任难题的一个有效手段,但未来仍需探索构建结构合理的责任体系。
应探索建立多元主体参与的人工智能治理模式
综上,人工智能的治理可能是一项系统性工程,需要统筹考虑,多方共同参与。从我国来看,建议统筹规划,明确政府对人工智能产品和服务管理的分工职责,鼓励企业、学界、公众等多方主体积极参与,共同探索建立人工智能产品和服务的协同治理体系。应建立对重大人工智能治理问题的应对机制,加强行业部门间协调,明确管理职责分工。在业务准入方面,建议加快对金融、交通、医疗等领域新产品、新服务的研究,尽快明确业务定义、准入规则和安全标准,避免业务发展带来的重大潜在影响。在产品设计和研发方面,应呼吁科技企业承担相应社会责任,按照伦理道德标准,开展自我约束与同行监督,共同研究制定算法设计的自律公约或规则。在个人隐私规则的构建方面,建议加强研究机构、企业等主体参与,统筹考虑产业发展与个人隐私保护的平衡问题。
作者简介
伦一,北京师范大学法学硕士,现就职于中国信息通信研究院互联网法律研究中心,主要从事新技术新业务监管、电信市场开放、个人信息保护等方面研究。联系方式:lunyi@caict.ac.cn
声明:本文来自中国信息通信研究院CAICT,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。