对于AI的应用,早已无法静观其变了。

文章仅供参考,观点不代表本机构立场。

各机构需要精通技术的联邦政府来应对人工智能的挑战

作者:Jack Corrigan

编译:学术plus高级评论员 蓝天

日期:2019年7月25日

来源:Nextgov.com

  • 美国公共服务伙伴关系组织(Partnership For Public Service):总部设在华盛顿特区,是一家非营利、无党派组织,旨在改变政府的工作方式。该机构与《华盛顿邮报》合作,定期在《华盛顿邮报》上发表文章。

  • IBM政府企业中心(IBM Center for The Business of Government):IBM旗下组织,主要关注当今政府面临的主要管理问题,包括技术和社交媒体的使用、财务管理、人力资本、绩效和结果、风险管理、创新、合作和转型。其目标旨在激发创造力,通过确定公共管理的趋势、理念等,制定政府改进的新方法,以提高政府工作效能。

随着人工智能工具在政府部门应用越来越广泛,伦理与技术问题愈发凸显,因此,人工智能是否能够顺利应用,很大程度上取决于是否有足够的能力来应对这些问题。否则,可能弊大于利。

越用,问题越多

研究人员表示,由于人工智能在政府决策中的作用越来越大,AI系统在偏见、透明度和可解释性方面急需一个公平、透明、合理的框架。并认为“可解释”的人工智能将是国防部研究工作的主要重点。

此外,情报机构还面临“数字攻击”的问题,由于可以通过改变训练数据或对系统进行逆向工程操作,使得对手从技术上完全可以操纵情报机构的AI工具,并可能造成“巨大的破坏”。

技术队伍,要建起来啊!

因此,要提高人工智能的可靠性和安全性,政府需要组建一支强大的技术员工队伍。但就目前而言,许多现任联邦政府官员认为,还没有做好足够的准备。

美国国家科学基金会(National Science Foundation)首席信息官Dorothy Aronson在该报告发布会上表示,“我们需要努力提高人们对人工智能的理解”,同时还提出“虽然拥有庞大、强大的员工队伍,但我们并没有真正发挥他们的最大能力,其重要原因是并没有在该培训方面进行投资

与此同时,许多员工再学习新技术上并不积极,因此,需要机构领导人的引导和帮助。因为,人工智能和分析正在成为经济社会中不可或缺的一部分,若想进入21世纪的就业市场,每个人都需要具备专业的技术和数据素养。

你说,世界就是如此,让我们静观其变。

她说,不管有多抗拒,都无济于事。

因为,

浪潮,已经来了。

报告主要内容摘编如下

理解并解决AI风险

随着各机构将人工智能整合到它们的工作中,它们将不得不关注从伦理到实践的各种问题。最主要的挑战包括:偏见、安全、透明度、员工对人工智能技术的了解,以及联邦预算和采购流程。下面将讨论每一项问题和挑战,并对各机构如何处理潜在问题以及战略制定提出建议。

偏见

造成AI偏见的原因很多,比如:数据质量差、数据数量有限、数据不全面等。

美国国家标准与技术研究所(National Institute of Standards and Technology)资深计算机科学家Michael Garris表示:“由于人工智能工具是数据驱动的,因此存在偏见和潜在偏见的问题)包括:隐藏的、未知的和不想要的数据。

为了解决人工智能的偏见,联邦机构需要具有技术敏锐性和数据分析与解释技能的员工,从而发现数据的偏见和不准确之处。

根据白宫2019年2月发布的人工智能行政命令,美国国家标准与技术研究院的研究人员正在探索测试和衡量人工智能安全和可信度的方法。作为其任务的一部分,该机构正在加强国际合作,探索全球人工智能标准。而这其中就应该包括建立一个评估偏见的框架。

安全

与任何IT产品或服务一样,人工智能需要强大的网络安全保障,以抵御漏洞、还有来自“坏人”的威胁。然而,AI的广泛应用无疑放大了网络安全的隐患。根据哈佛大学2017年的研究论文《决策者的机器学习》,如果人工智能系统“正在驾驶汽车、进行作战等等”,那么能够破坏这些系统的黑客“有更大的能力更快地造成巨大破坏”。

如果没有适当的安全措施,AI其实很脆弱。网络攻击可能改变人工智能训练数据,或引入损坏或错误的数据,从而改变人工智能工具的结论。黑客还可以在人工智能工具训练的数据中发现个人身份信息,因此还存在隐私泄露的风险。

由于安全问题到全球性特点,美国政府正在加强国际合作与经验分享。英国上议院人工智能委员会(Artificial Intelligence Committee)前主席Tim Clement- Jones表示,政府必须确保数据安全,并“花一些时间让人们放心:我们的网络安全非常合格”。

透明度

有了AI,各机构能够更快、更准确地完成任务;通过使人工智能透明化,用户可以了解该工具是如何得出结论的,以及人工智能技术使用了哪些数据。当人们想要对决策的原因作出解释时,缺乏透明度可能会引发一连串的问题。

然而,事实并不乐观。美国国家科学基金会(National Science foundation)表示,“无论是对于非人工智能专家,还是人工智能专家来说,如今大部分AI决策过程都是一个‘黑匣子’。”就算不是黑匣子,AI决策也是非常复杂,并且难以解释的,往往令人困惑是如何得出结论的。

为了促进对人们对AI系统的信任。研究人员正在研究可解释的人工智能,使人工智能算法及其结果不那么像一个黑匣子。

一些机构,如DARPA(国防高级研究计划局)和国家科学基金会,已经资助了可解释人工智能的研究。DARPA表示,这可以帮助用户“理解、适当信任并有效管理新一代人工智能机器合作伙伴”。

人工智能技术添加可解释性,以帮助解决人工智能算法被视为黑匣子的问题;当用户无法理解AI的某项决策,或者他们认为某个决策是错误的,或者人工智能的复杂性几乎无法解释时,人工智能就会被认为是神秘的黑匣子。医疗保险和医疗补助服务中心(Centers for Medicare And Medicaid Services)希望获得能够解释“对临床医生和患者进行的人工智能预测的”人工智能工具,“以建立信任并提高透明度”,寻找预测住院人口和医疗问题的方法。

员工培训

在管理AI风险的同时,提高员工技能是能够最大化提升AI作用的途径。在最近与IBM中心人工智能圆桌会议上,几位与会者表示,必须要让人力资源跟上技术进度,然而,政府常常因为资金等问题,在AI培训和教育上止步不前。

万事开头难,开始时,即使是很小的改变,也可能有利于提高透明度。比如对员工进行AI关键术语和定义的教育培训,美国国家科学基金会(National Science Foundation)首席信息官Dorothy Aronson也强调,“员工需要学习有关人工智能的算法,以便能够理解该工具的功能。

预算和采购

联邦收购与预算程序的落后无疑阻碍了新技术的部署。美国国家科学基金会首席信息官Aronson表示,由于大多数机构的预算都是提前两年开始进行,因此往往无法灵活购买新技术。

此外,典型的采购过程包括购买成品或服务,但许多人工智能应用程序是迭代的,人工智能的快速发展和改进可能会让政府的发展显得相对滞后。经济合作与发展组织(Organization for Economic Cooperation and Development)在一份会议文件中指出,“人工智能正在以比预期更深入、更快地改变经济和社会领域。

因此,各机构应充分利用预算和采购过程中可用的工具,及其灵活性来满足AI发展的需要。例如,可以使用“先试后买”的采购方式,先小规模地试验新工具,或者在全面投资之前,先签订阶段性合同,评估提案和试点工具。

总结

AI的潜在应用与带来的益处已经远远超过其他任何技术。从日常娱乐到提高生产效率、拯救生命;从打扑克创作梵高风格的画作,到转录音频,到诊断疾病或预测财务欺诈……

预计AI工具还将对联邦政府产生重大影响,并对联邦系统和结构产生影响。在享受AI好处的同时,也必须准备好应对相关风险。鉴于这项技术有可能在政府范围内转变工作,管理和预算办公室以及科学和技术政策办公室应继续带头努力管理这些风险。

Partnership for Public Service和IBM政府事务中心希望这份白皮书能在政府内部引发对话。尤其是:如何最好地使人工智能成为机构任务规划的一部分,而不仅仅是松散地与单独项目关联的某项技术而已。

报告原文链接:https://ourpublicservice.org/publications/more-than-meets-ai-part-ii/

声明:本文来自学术plus,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。