当下,人类社会正在经历以人工智能、大数据、智能云为标准的第四次工业革命。在这场全新技术浪潮中,智能云和无处不在的智能终端相互联通,人工智能融入其中,起到全面促进人类数字化转型、解放人类的生产力的作用,第四次工业革命的技术浪潮正在给全球各地各行各业的企业与个人带来巨大的机遇与挑战。

人工智能发展至今,其在某些应用领域已经接近人类水平,比如某些人工智能辅助诊疗工具在部分疾病的确诊率方面已经与人类医生相当。

再比如,语音识别水平也达到人类自然语音识别的最高等级,而在一些图像识别和上下文理解工具更是超越了人类水平,人工智能技术创新正在为人类新一轮的创新铺平道路。

但是正如著名哲学家康德所说,“有两种东西,我对它们的思考越是深沉和持久,它们在我心灵中唤起的赞叹和敬畏就会越来越历久弥新,一是我们头顶浩瀚灿烂的星空,一是我们心中崇高的的道德法则。”

所以,即便人们能够仰望星空参透科学规律,凭借超前的算法,并结合庞大的算力,研发出具备无限潜质的人工系统,但必须要在科学工具应用和落地的时候,遵循人类的道德规范,以善为目的,增强人类智慧,造福社会上的每一个人。

相反地,与无规范的研发工作伴随而来的必然是对社会秩序的破坏以及对个人自由与权益的侵蚀。任何新技术都会对人类的价值体系带来挑战,特别是强大的人工智能技术。

随着人工智能技术的广泛应用,其正在重新定义人与人之间的关系,人与技术之间的关系。在公共领域,越来越多的专家学者在不断地探讨人工智能的伦理问题、道德问题和安全问题,各大机构和组织也在近几年密集发布人工智能伦理原则和规范指导。

2018 年,在由微软全球执行副总裁、美国国家工程院院士沈向洋博士和微软公司总裁施博德(Brad Smith)联合编著的《计算未来:人工智能及其社会角色》中详细阐述了人工智能六大伦理原则,包括四项价值观和两项基础原则。

公平:人工智能技术必须公平对待每个人,同时也必须应用在促进人类社会更加公平的用途上。为了保证人工智能的公平性,在人工智能技术开发和应用中必须了解和消除技术可能带来的偏见。

例如,人工智能数据的设计均始于训练数据的选择,训练数据或样本数据应该足以代表人类生存的多样化世界,至少是人工智能将运行于其中的部分世界,要求开发人员尽可能了解训练数据的来源,以及标注的方法。对训练数据进行调整,排除中间可能发现的偏见;

其次,警惕现实社会中已经存在的带有种族主义和性别歧视倾向的社会数据污染人工智能算法。具体而言,在算法开发、产品应用中,需要尽可能地保证工作者的多元化和多样性;

最后,在许多情况下,人工智能系统输出的结果是一个概率预测,但并不代表确定会发生,只有准确理解人工智能结果的含义和影响,才能弥补人工智能决策中的不足。

可靠与安全:人工智能系统目前为止是高度依赖训练数据与用户数的数据,所以数据的调整以及应用场景的变化都会对系统的结果造成影响。因此要求技术开发和产品服务提供商能够对人工智能系统进行长期持续的维护和提升,确保系统的安全可靠。

而不是开发完人工智能产品和服务就直接交给客户独立运营,人工智能算法和产品在没有运行过程的维护更新的时候,经常由于机器学习的原因或是数据的缺陷,陷入“牛角尖”,造成歧视问题或是结果同质化。

隐私与保障:目前人工智能技术发展是数据驱动的,在技术开发和产品应用过程中都有着海量数据的汇聚,因此必须考虑隐私的保障性。

这意味着,一方面人,工智能系统必须尊重各国的数据隐私法律,对数据的采集、存储以及使用必须透明化,允许和保障用户对数据有控制权;

另一方面,人工智能的技术应用可能会使得原本不具有威胁性的一般数据,在经过处理和曝光后变成重要数据。

例如,在美国一款叫 Strava 的健身 APP,能够通过人工智能技术综合辅助人们健身,而部分美国军事基地现役军人在锻炼时使用了该 APP,使得美国军方的后勤隐身、基地地理位置、军人身体素质等等高度保密的信息被泄露出去。

包容:人工智能技术的发展应该具备包容性,应该能够有利于每个人,使所有人从技术创新和应用中获益。

因此,人工智能系统应该广泛囊括各种不同的人的需求,在设计之初,应该让系统能够理解人的需求、期望等,甚至能够对社会已有的一些不公平现象进行更好的处理。

比如人工智能在企业招聘中的应用,可能会使得不同种族、不同性别的人群之间的个体差异演变成整体结果持续性的偏差,因此需要在系统设计中适当地对不同数据标签的权重进行设计,从而使输出结果具备包容性。

透明:在人工智能领域表现最为突出的是深度学习技术,其算法系统本身的特点决定了透明度和准确度无法兼得,只能在二者权衡取舍。在理解人工智能模型准确性的同时,需要在较高的层次了解模型的工作原理。

更重要的是人工智能企业需要帮助用户理解模型,使用户对人工智能模型提供的结论实现更清晰、完整的认识,从而作出更好的决策。

同时,最后的决策权应当落在人类身上,比如在一些影响人身安全、人身财务的问题上,而不要百分之百依赖人工智能系统作出的自动决定,因为基于“黑箱”现状,人们是很难理解技术输出结果的逻辑和原因的。

比如关于工作或是贷款,决定此项工作或贷款是否应该提供对方一定是基于人类可以理解的原因,而不是由人工智能决定。

负责:人工智能系统帮助人类作出最好的决策,而不是应该替代人类,一定要保证人类参与到决策过程中,在系统推荐的基础上,结合社会、文化、道德多方面考量,作出决定,并为这个决定负责。

其中最核心的问题是人工智能系统是否具备法律主体地位,目前普遍的态度是相对否定的,即再智能化的算法,也必然要有开发者或是使用者对其负责。

具体而言,在人工智能诸多的应用领域,尤其在某些高风险场景下,比如涉及人身安全、健康或者基本权益的有关医疗、军事等领域的应用场景,设计者需要确保人工智能系统以善为目的并且能够准确地按照其设计初衷运行。

考虑到人工智能模型对训练数据有极高的依赖性,研发人员需要确保用高质量的训练数据对人工智能模型进行训练。

此外,研发人员还应当采纳一套机制来用可衡量的标准对人工智能系统的表现情况进行持续监督和改良。

以人脸识别技术为例,与其他新技术一样,人脸识别技术的应用日益多样化,其中包含了意料之中以及意料之外的应用方式。

但越来越确定的是,其中许多应用为世界各地的人们带来了新的积极意义。比如印度新德里警方最近利用人脸识别技术,在 4 天内发现了近 3000 名失踪儿童;美国历史学家使用人脸识别技术识别出了19 世纪60 年代南北战争时期照片中的无名士兵;研究人员使用人脸识别软件成功诊断出存在于非洲人、亚洲人和拉丁美洲人的一种罕见遗传疾病;今年 10 月,澳大利亚国民银行设计了一个方案,可以让客户凭借人脸识别和个人密码从自动取款机中取款。

同时,社会也需要清楚地认识到技术滥用的风险和可能性。

首先,特别是在当前发展阶段,人脸识别技术的某些应用增加了决策和结果存在偏见的风险,甚至在某些情况下可能触犯了反歧视法律。

其次,人脸识别技术的广泛使用可能会导致对隐私的新的侵犯。

第三,政府使用人脸识别技术进行大规模监视可能会侵犯民主自由。

因此,基于上述的人工智能六大原则,人脸识别技术应当具体坚持如下原则:努力开发和利用公平对待所有人的人脸识别技术;记录并清楚地传达人脸识别技术的功能和局限性;鼓励并帮助客户利用人脸识别技术,并在可能对人们产生重大影响的用途上实施适当的人工控制;在服务条款甚至产品开发中禁止将人脸识别技术用于非法歧视;要求主体在使用人脸识别技术时通知用户并征得用户同意;倡导在执法监督中使用该技术时,保障人民的民主自由,并且不会在可能危及这些自由的情况下使用人脸识别技术。

罗立凡,微软亚太研发集团法律事务总经理,微软公司全球助理法律总顾问。

选自《信息安全与通信保密》2019年第十期

声明:本文来自信息安全与通信保密杂志社,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。