人工智能治理(Governance of AI)已经成为世界各国政府最重视的领域之一,只有在更广泛的维度和更深的层面上对人工智能进行良好治理,才能真正推进人工智能的安全可靠发展。
首先,准确的定义能够更好地涵盖议题的内涵和外延,使得治理更加精准。
通常而言,人工智能治理的描述性定义(Descriptive definition) 是指人工智能决策制定和实现的过程,具体包括规范、政策、制度和法律。
而规范性定义(Normative definition) 则是指此类过程的良好集合,良好的治理通常意味着有效性、合法性、包容性和适应性。
良好的人工智能并不是一个能够很容易实现的结果,原因在于人工智能技术本质是一种基础性共性技术(General Purpose Technology, GPT),能够从根本上改变经济、社会和军事进程,其方式往往难以治理。
美国核物理学家利奥·西拉德 (Leo Szilard) 在 1978 年写到,“(对于技术创新)保守的做法是假设技术创新会发生并采取所有必要的预防措施。”
因此,应对人工智能风险,提前进行人工智能治理研究是十分重要的。
笔者在 2017 年《人工智能治理 : 研究议程》(AI Governance:A research agenda) 中提出一个具体的分析框架,从技术布局(Technical landscape)、政治(Politics)、理想治理(Ideal Governance) 和政策(Policy) 四个方面考察人工智能治理。
技术布局包括能力、图景、预测和安全;政治包括国际地缘政治、国内和大众政治、国际职位评估(IPE)、国际安全;理想治理包括价值观、原则、积极愿景、制度设计、规范制定;政策包括将长期目标转化为具体的短期政策行动。
针对人工智能技术布局,可以从更细化的 7 个维度来讨论。①快速而广泛的进步;②种类、功能和属性;③技术的战略属性;④工具输入、能力和性能;⑤人工智能建模进程;⑥预测与指标;⑦人工智能安全。
对于算法政治属性的研究, 应当包括:隐私、公平、透明度、可解释性、可审核性、问责制、鲁棒性、安全、保障、准确性和创新。同时,在研究人工智能技术布局时,要注重人工智能系统与其他技术方向的互动,Ben Garfinkel 博士在《密码学的最新发展和可能的长期后果》(Rencent Developments In Cryptography And Possible Long-run Consequences) 一文中讨论了人工智能技术与密码发展的相关性,包括在监视、隐私保护、防伪计划、可信计算各个方面。
在政治方面,人工智能治理主要包括四个维度。国内政治方面包括劳动转移和不平等、监测和控制、影响、政策反弹和抵制。国际政治经济方面包括全球自然寡头垄断、税法、竞争政策 ( 垄断 )。国际安全:法律和网络、权力转移、战略稳定、军事化。
总体而言,可将人工智能的治理属性总结为:①危害和利益扩散(Diffuse harms and benefits); ② 高不确定性(High uncertainty); ③ 快速变革和动态问题(Fast moving, dynamic problem); ④ 成就不可逆性(Irreversible achievements); ⑤ 责任不清(Unclear responsibility); ⑥ 两用性和广泛使用(Dual-use, broadly available); ⑦ 高技术性(Highly technical); ⑧ 竞争导向(Competitive incentives)。
具体而言,现在的安全人工智能通常是指防止人工智能的两种风险,恶意使用或事故风险。
Brundage 等人在《恶意使用人工智能:预测、预防和缓解》(The Malicious Use of Artificial Intelligence:Forecasting, Prevention, and Mitigation) 一文中对此做了详细的介绍,探讨了在数字、物理和政治三个安全域下,人工智能的恶意滥用和事故风险导致的威胁,包括深度造假、合成媒体、网络攻击、无人机滥用等一系列新技术的应用方向。
但是这种视角通常将人工智能恶意滥用归结为人类本身的恶性,犯罪、政治或经济利益驱动,以及因设计者或用户不正确使用导致的事故等,并不能真正剖析技术风险的诸多变化,以及与政策、环境的互动。
因此,需要从结构的角度来看待行为主体所面临的激励机制、信息流态、权力分布等。
Remco Zwetsloot 与笔者合著的《思考来自人工智能的风险 : 事故、恶用和结构》(Thinking About Risks From AI: Accidents, Misuse and Structure)中,曾尝试揭示人工智能治理与结构之间的互动关系,包括人工智能技术对于政治、经济和社会结构的冲击,以及结构作为一种整体环境对于人工智能主体的影响。
比如在2018 年初 Uber 公司无人驾驶汽车造成的第一例行人死亡事故,最初的事故调查结果将原因归结于“脆弱”的视觉系统和“迟钝”的刹车系统,但是最终的原因却是公司工程师故意将紧急刹车敏感度降低,选择了此种“安全的危险权衡” 是为了保证 Uber 无人驾驶汽车在市场有足够的竞争力,因为过于敏感的刹车制动将会极大提高错误率,影响用户体验。
同样的原因也可以在波音 737 坠机事件中看到,波音面临的竞争压力、向飞行员等相关利益相关者传达的信息不足,以及监管机构资源不足共同导致了技术层面的悲剧。
因此,将人工智能风险简单地分为滥用和事故是不够的,必须深刻考虑结构环境的影响。
新技术的发展给人类更强大的自信,使得人类有时会转向激进的新政治技术来进行治理, 比如区块链,尽管加密技术可以为治理提供新的功能,但是不太可能克服基本问题。
在这种情况下,人类不应该完全寄希望于技术创新发展能够自动解决治理问题,根本政治问题的解决方式必须综合而广泛。
有效治理的重要部分是更好地理解关键涉众如何看待问题。在任何国家,公共空间和舆论会形成对许多政策的辩论探讨,这种观点和情绪集合对于管理者制定明智的政策,以及公共宣传是至关重要的。
2019 年 1 月,在牛津大学人类未来研究所人工智能管理中心发布的《人工智能:美国人的态度和趋势》(Artificial Intelligence: American Attitudes and Trends) 中, 对具有全国代表性的 2000 名美国成年人完成了调查。
例如,报告显示在调查中提出的 13 项人工智能治理挑战中,防止人工智能辅助监视侵犯隐私和公民自由,防止人工智能被用于在线传播虚假和有害内容,防止针对政府、公司、组织和个人的人工智能网络攻击和保护数据隐私这三项风险是美国公众最为关注的,这也就意味着美国政策制定者需要在这些领域对公众的质疑有所回应,才能更好地推进人工智能治理。
最后,人类社会必须意识到,人工智能技术的发展和影响是全球性的,增进主要国家之间的了解、互信、政策协调和技术合作是必不可少的。在人工智能治理方面,随着全球范围内的贸易摩擦增多和技术管控更加保守,需要各国更加努力推进人工智能的发展。
艾伦·达福(Allan Dafoe),牛津大学副教授,牛津大学人类未来研究所人工智能治理中心主任,研究方向为人工智能治理。
选自《信息安全与通信保密》2019年第十期
声明:本文来自信息安全与通信保密杂志社,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。