美国初版《人工智能战略》于2016年由奥巴马政府发布,时隔三年,特朗普政府近期发布了一份战略更新。首先,对之前七个重点领域进行了全面更新,各自重点有所变化,这七个领域分别涉及到:人工智能研究投资、人机协作开发、人工智能伦理法律与社会影响、人工智能系统的安全性、公共数据集、人工智能评估标准、人工智能研发人员需求。此外,除了提出最初的七个重点领域之外,增加并特别强调了第八项战略:公私伙伴关系。
本文详细介绍了2019年版最新战略的更新状况,以及美国人工智能8项战略的具体规划与相关项目。
文章仅供参考,观点不代表本机构立场。
作者:AARON BOYD
编译:学术plus评论员 蓝天
发布时间:6月21日
来源:NextGov网站,美国白宫官网
由于业界大量投资涌入AI领域,其前景日益复杂且发展极为迅速。因此,联邦政府再次评估更新人工智能研发投资的优先次序,以确保投资的有效性,避免重复投资。
——美国副首席技术官Michael Kratsios
报告正文摘编如下
战略1
2016版本:对人工智能研究进行长期投资2019更新:持续在基础人工智能研究上的长期投资
自2016年《国家人工智能研发战略计划》发布以来,AI在机器学习及其应用的能力上不断增强,并在多种不同的应用中形成影响,例如:基因序列分类、无线频谱资源管理、解读医学图像、癌症分级等。然而,这些进步的成熟应用需要几十年的研究才能实现。因此,联邦政府必须继续支持机器学习和人工智能的长期基础研究,以促进技术转型及应用。并在此基础上努力实现“通用人工智能”的愿景。
最近的联邦投资优先考虑了机器学习与人工智能基础研究及其在多个领域的使用,包括国防、安全、能源、交通、卫生、农业和电信。然而,人工智能技术仍有更多的发展空间,如:建设先进的医疗保健系统、强大的智能交通系统、快速恢复的能源和电信网络。
战略1包含以下几个具体方面:
推进以数据为中心的知识发现方法;增强人工智能系统的感知能力;理解人工智能的理论能力和局限性;追求研究通用的人工智能;开发可伸缩的人工智能系统;促进对类人人工智能的研究;开发更有能力、更可靠的机器人;为人工智能的改进发展硬件;为改进硬件创建人工智能。
战略1相关项目:
●美国国家科学基金会继续资助人工智能的基础研究,包括机器学习、推理和表示、计算机视觉、计算神经科学、语音和语言、机器人和多智能体系统。
●DARPA于2018年9月宣布,将对新项目和现有项目进行为期多年的投资,名为“AI Next”项目。关键的行动领域包括提高人工智能系统的鲁棒性和可靠性;增强ML(Maschine Learning)/AI技术的安全性和弹性;减少功耗、数据和性能的低效;并开创了下一代人工智能算法和应用,如可解释性和常识性推理。
●美国国立卫生研究院(NIH)2018年9月的数据科学战略计划旨在促进生物医学研究领域获得数据科学技术和ML/AI能力,从而实现数据驱动的医疗研究。
战略2
2016版本:开发有效的人机协作方法2019更新:开发能够补充和增强人类能力的人工智能系统,并日益关注未来的工作。
自2016年《国家人工智能研发战略计划》发布以来,国家对人机协作的兴趣日益浓厚。当人工智能系统补充和增强人类的能力时,人类和人工智能将成为一系列共享甚至自主场景的合作伙伴。特别是在未来的工作环境中,人类与人工智能协作既是挑战也是机遇。
在过去的三年里,各项会议、研讨会和工作组都将人工智能协作放在了优先位置。例如,人类计算和众包大会(Conference on Human computing and Crowdsourcing)已经从一个研讨会发展成为一个重要的国际会议,旨在促进人工智能和人机交互(HCI)交叉领域的研究。2018年,人工智能发展协会(Association for the Advancement of Artificial Intelligence)将人机协作作为年会的新主题。2019年5月,最大的人机交互会议CHI举办了一个关于“弥合人工智能和人机交互之间的鸿沟”的研讨会。
在过去的三年里,联邦机构投资主要集中在:人机认知、自主和代理,比如决策支持、风险建模、态势感知和可信的机器智能。通过这类研发投资,研究伙伴关系正在跨越多个轴线,将计算科学家;行为、认知和心理科学家以及来自其他领域的科学家和工程师聚集在一起。
展望未来,最重要的是,联邦机构应继续促进人工智能的研发和系统设计,使其融入用户的情况和目标,以便人工智能系统和用户能够在预期和非预期的情况下协同工作。
战略2的关键信息技术研究挑战包括:
(1)为人工智能寻找新的算法;(2)开发人工智能技术用于人类增强;(3)开发可视化和人机界面技术;(4)开发更有效的语言处理系统。
战略2相关项目:
●美国国家海洋和大气管理局正在推进人类与人工智能在飓风、龙卷风和其他恶劣天气预测方面的合作。在这些合作中,人类预报员和人工智能系统共同努力,提高恶劣天气预警的生成能力,并识别出极端事件的不同模式。有时也被称为“环上的人类”,人类预测者监督人工智能系统的预测并指导结果。
●美国能源部2019年关于科学机器学习的研讨会报告确定了优先研究方向、主要科学用例,以及人工智能合作将改变科学研究方式的新趋势。
战略3
2016版本:理解和处理人工智能的伦理、法律和社会影响2019更新:处理人工智能的伦理、法律和社会影响
自2016年《国家人工智能研发战略计划》发布以来,针对人工智能系统开发和部署的伦理道德、法律和社会影响的研发有所增加。人们越来越认识到,人工智能系统必须是“值得信赖的”,而且人工智能可以改变社会和经济生活的许多领域,包括就业、医疗和制造业。因此,需要深入开发AI架构,通过技术机制(如透明性和可解释性)将伦理、法律和社会关注点结合起来。这项研发将需要技术专家、利益相关者和其他领域的专家(包括社会和行为科学、法律、伦理和哲学)之间的密切合作。
战略3的关键信息技术研究挑战包括:
(1)通过设计提高公平、透明度和问责制;(2)建立道德的人工智能;(3)设计符合伦理道德的人工智能体系。
战略3相关项目:
●DARPA的可解释人工智能(XAI)项目旨在创建一套ML技术,在保持高水平学习性能(预测精度)的同时,产生更多可解释的人工智能系统。XAI还将使人类用户能够理解、适当信任和有效管理新一代人工智能系统。国防部致力于“在军事道德和人工智能安全方面发挥领导作用”,这是其人工智能战略中五个关键行动之一。
●美国国家科学基金会和亚马逊正在合作,共同支持以人工智能公平为重点的研究,为可靠的人工智能系统做出贡献。
战略4
2016版本:确保人工智能系统的安全2019更新:建立健康的和可信任的人工智能系统
随着2016年《国家人工智能研发战略计划》的发布,人们对人工智能安全的科学性和社会性理解迅速增长。同时也发现了新的问题:人工智能系统如何能够分别通过对抗性的例子、数据中毒和模型反转来做错误的事情、学习错误的事情,或者揭示错误的事情。不幸的是,目前仍没有适合的解决方案。
若解决这些问题,必须在人工智能系统生命周期的所有阶段考虑人工智能系统的安全性,从最初的设计和数据/模型构建,到验证和验证、部署、操作和监视。但事实上,“设计安全”的概念可能会传递一个错误的概念,即这些只是系统设计人员的关注点;相反,它们必须在整个系统生命周期中考虑,而不仅仅是在设计阶段,因此必须是人工智能研发的重要组成部分。因此,必须确保人工智能的创建、评估、部署和包含的安全性,并且这些方法必须进行扩展,以匹配人工智能的能力和复杂性。评估这些方法将需要新的度量标准、控制框架和基准来测试和评估日益强大的系统的安全性。
战略4相关项目:
2018年10月,交通部发布了新的联邦自动车辆指南,支持将自动化安全集成到广泛的多模式地面运输系统中。《为交通运输的未来做准备:自动车辆3.0》改进了交通部的自动车辆安全集成原则。文件还重申了先前的安全指南,提供了新的多模式安全指南,并概述了随着新技术的发展与交通部一起工作的流程。
战略5
2016版本:为人工智能培训和测试开发共享的公共数据集和环境2019更新:增加对数据集和相关挑战的访问
2016年,公开可用的数据集和环境已经在推动人工智能研发方面,特别是在计算机视觉、自然语言处理和语音识别等领域发挥了关键作用。而在2019年的行政命令中也明确指出:
所有机构的负责人应审查各自联邦数据和模型,以确定增加更多的非联邦人工智能研究领域的访问和使用的机会,同时保护安全、保障、隐私和机密性。具体来说,各机构应改进数据和模型库存文档,以支持发现和可用性,并应根据人工智能研究领域的反馈,优先改进人工智能数据和模型的访问和质量。
战略5的关键领域包含:(1)开发和访问各种数据集,以满足各种人工智能兴趣和应用程序的需要;(2)使培训和测试资源符合商业和公共利益;(3)开发开源软件库和工具包。
战略6
2016版本:通过标准和基准来衡量和评估人工智能技术2019更新:支持人工智能技术标准和相关工具的开发
国际标准化组织(ISO)和国际电工委员会(IEC)召开了人工智能联合技术小组委员会,为人工智能系统和相关考虑制定标准。重要的是,联邦、工业界和学术界的研究人员应继续向这些活动提供信息,特别是在人工智能的发展和系统进入如交通、卫生保健和食品等与政府机构的使命相一致的领域时。
标准、基准、测试平台及人工智能的采用,对于指导和促进人工智能技术的研发至关重要,以下领域尤为值得关注:(1)开发广泛的人工智能标准;(2)建立人工智能技术基准;(3)增加人工智能试验台的可用性;(4)让人工智能领域参与标准和基准测试。
战略7
2016版本:更好地了解国家人工智能研发人员的需求2019更新:推动人工智能研发队伍的发展,包括人工智能系统从业,以及那些与他们一起工作的人,以维持美国的领导地位
自2016年《国家人工智能研发战略计划》发布以来,对人工智能研究人员和从业者的需求迅速增长。研究表明,未来十年,就业机会预计将增加到数百万。美国劳工统计局预计,从2016年到2026年,计算机和信息科学家和工程师的职位数量将增长19%,几乎是所有职业平均增长速度的三倍。
随着人工智能学生兴趣和入学人数的爆炸性增长,学术机构正努力跟上步伐。与此同时,业界凭借其持续的财政支持和先进的计算设施和数据集,对学术研究和教学人才产生了强大的吸引力。在人工智能领域保持一个强大的学术研究生态系统十分重要,通过与业界研发合作,可以通过促进国家健康、繁荣和福利,以及确保国防安全,继续带来巨大的红利。
战略8
2019更新:扩大公私合作,加速人工智能的发展。战略8是2019年新提出的,反映了公私合作伙伴关系对研发人工智能日益重要的地位。
美国在科学和工程研究与创新方面的领先地位,植根于美国独特的政府-大学-产业研发生态系统。自2016年《国家人工智能研发战略计划》发布以来,联邦政府已经扩大了这一愿景,即“与学术界、产业界、国际合作伙伴和盟友以及其他非联邦实体合作,促进对人工智能研发的持续投资,在人工智能和相关技术方面实现技术突破,并将这些突破迅速转化为有助于美国经济和国家安全的能力。”
人们对人工智能技术的转化应用越来越感兴趣,开发值得信赖的人工智能系统的重要性,劳动力方面的考虑,当然还有促进人工智能研发的公私合作伙伴关系。该战略将推动机构和私营部门(包括工业、非营利组织和学术界)共享资源,包括研究数据、设施,并提供教育机会。
——白宫科技政策办公室人工智能助理主任琳恩•帕克(Lynne Parker)
公私伙伴关系常见的结构和机制包括:
(1)基于单个项目的协作;(2)促进开放、竞争和基础研究的联合项目;(3)合作部署和加强研究基础设施;(4)合作促进劳动力发展,包括扩大参与范围。
联邦机构必须继续寻求并加强人工智能研发领域的公私合作,过程中,美国政府将充分利用独特的美国创新生态系统。就像在过去20年里,美国创新生态系统通过新的信息技术彻底改变美国经济社会那样。
报告目录如下
【相关参考链接】
https://www.nextgov.com/emerging-tech/2019/06/white-house-updates-national-artificial-intelligence-strategy/157922/
https://www.whitehouse.gov/wp-content/uploads/2019/06/National-AI-Research-and-Development-Strategic-Plan-2019-Update-June-2019.pdf
声明:本文来自学术plus,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。