近期,MIT技术评论网站发表专家文章,探讨人工智能道德准则问题,指出各大国际组织和企业都在竞相制定全球人工智能(AI)道德准则,各种宣言、声明和建议遍布网络。然而,如果在制定准则时没有考虑到AI应用的文化和地域背景,这些努力将会徒劳无功。
事实一再证明,AI系统造成的问题会不同程度地影响被边缘化的群体,只有少数特权阶层才能从中获益。全球现有数十项AI道德准则,目的是让这项技术惠泽全民,避免造成伤害。一般来说,这些指南和准则是对开发者、出资者和监管者的行为进行约束。例如,建议开展例行的内部审计,或要求保护用户的个人身份信息等。
我们相信,这些团体无一不是用心良苦,工作意义非凡。AI界的确应该在全球范围对合乎道德的AI形成统一定义和概念。但是,如果没有地域区分,这将变成全球统一的AI道德愿景,仅体现了世界上少数地域(尤其是北美和西北欧地区)人们的看法。
这项工作艰难曲折。“公平”、“隐私”和 “偏见 ”在不同的地方代表不同的含义。人们根据自己的政治、社会和经济现实,也对这些概念抱有不同期望。AI带来的挑战和风险也因地域差异而有所区别。
如果制定全球AI道德准则的组织并未意识到这一点,则最好的情况是出台对全球各地都毫无意义的标准。而最坏的情况下,这些残缺标准将导致更多的AI系统和工具延续现有偏见,忽视当地的文化背景。例如,2018年,Facebook因对在缅甸散播的不当消息响应不及时,最终导致了侵犯人权行为。为此,Facebook专门进行了付费评估。结果发现,造成疏忽的部分原因是由于Facebook的社区准则和内容适度性政策并未考虑缅甸的政治和社会现状。
为了避免再次出现这种不当使用,专门为AI系统和工具制定道德准则的公司需要让世界各地的用户充分参与,从而帮助制定管理这些系统的适当标准。他们还必须清楚如何在不同场景中运用这些政策。
尽管存在风险,但一些国际组织委任的许多人工智能咨询委员会、专家小组和理事会仍然明显缺乏地域多样性。例如,联合国儿童基金会针对儿童的AI项目的专家咨询小组中就没有来自中东、非洲和亚洲地区的代表,而恰恰这些地区聚集了大量的儿童和年轻人。
很遗憾,就目前来看,整个AI道德领域都存在语言、思想、理论和挑战方面的局限,主要偏重北美、西欧和东亚等少数地区,这存在着严重风险。
这种地域多样性的缺乏恰恰体现了目前AI研究的集中态势:在2018年AI会议上发表的论文中,有86%的论文的作者来自东亚、北美或欧洲地区。而在这些地区发表的AI论文所列出的参考文献里,只有不到10%来自其他地区的论文。除此之外,专利也高度集中:2018年发表的人工智能专利中,51%的专利来自于北美。
我们在制定AI道德准则的过程中,如果任由缺乏地域多样性的问题误导工作,最终结果将弊大于利。如果我们不谨慎对待,可能会将人工智能的历史性偏差带进准则,扭曲未来几代人的技术。因此,我们必须开始重视来自中低收入国家(尤其是“南营”)和历史上被边缘化团体的声音。
技术进步往往让西方国家受益,从而进一步加剧其他地区的经济不平等、政治压迫和环境破坏等问题。因此,要避免重蹈覆辙,最好要在制定AI道德准则时考虑非西方国家。
令人欣慰的是,许多来自代表性不足的地区的专家和领导人可以加入这种咨询小组。然而,许多国际组织似乎并没有极力争取这部分力量。例如,新成立的全球人工智能道德联盟(Global AI Ethics Consortium)的创始成员中就没有代表中东、非洲或拉丁美洲的学术机构或研究中心的成员。这种缺失是殖民模式重演的一个鲜明例子。
如果要建立道德、安全且包容的AI系统,而不是简单的“道德洗礼”,我们首先必须与那些曾经被上述因素所伤的人们建立信任关系。而第一步就需要让他们切实参与其中。
蒙特利尔AI道德研究所(Montreal AI Ethics Institute)试图另辟蹊径。其举办了数字AI道德见面会,任何具备互联网连接或电话的人都可以参与此次公开讨论。这些活动让不同人群能够进行交流。与此同时,诸如AI合作伙伴(Partnership on AI)之类的团体,更加清楚地意识到AI缺乏地域多样性,因此建议修改签证法,并提出一些便于研究人员出差交流工作的政策。Maskhane是一个汇集非洲自然语言处理人员的草根组织,致力于对忽视非主流语言的机器翻译工作进行改善。
一些国际组试图在AI讨论中积极吸纳更多不同观点,这种情况令人鼓舞。我们必须记住,任何关于AI道德的讨论都要重点考虑地域和文化差异性。如果错失无权利或影响力人群的观点,负责任的AI规范也会成为一纸空谈。
新一代信息科技战略研究中心 供稿人:张娟
声明:本文来自新一代信息科技战略研究中心,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。