美国国家标准与技术研究所(U.S. National Institute of Standards and Technology,以下简称“NIST”)正在就其人工智能风险管理框架的第二稿征求公众意见。NIST表示,该自愿性指南旨在提高将可信性考虑因素纳入人工智能产品、服务和系统的设计、开发、使用和评估的能力。关于最新草案的公众咨询将持续到9月29日,而NIST还将在10月18-19日的研讨会上征求关于该指南的反馈意见。
《人工智能风险管理框架:第二稿》重点摘译
值得信赖和负责任的人工智能
人工智能(AI)能力的显著提升引发了广泛的创新,有可能使社会和经济许多方面受益——从商业和医疗保健到运输和网络安全。人工智能技术经常被用来提供信息、建议或简化任务,从而实现其有益的影响。
管理人工智能风险与管理其他类型的技术的风险并无不同。任何软件或基于信息的系统的风险都适用于人工智能,包括有关网络安全、隐私、安全和基础设施的担忧。与这些领域一样,人工智能系统的影响可以被定义为长期或短期、高概率或低概率、系统性或局域性、高影响或低影响。然而,人工智能系统带来了一系列风险,需要特定的考虑和方法。人工智能系统会放大、延续或加剧不公平的结果。人工智能系统可能表现出紧急属性或导致个人和社区意想不到的后果。驱动人工智能系统行为的数据交互的有用的数学表示尚不完全可知,这使得目前衡量风险和驾驭风险收益权衡的方法不足。人工智能风险可能来自于用于训练人工智能系统的数据、人工智能系统本身、人工智能系统的使用或人与人工智能系统的交互。
尽管人们对如何让人工智能技术值得信赖的看法不同,但值得信赖的系统具有一些公认的关键特征。值得信赖的人工智能是有效和可靠的,是公平和偏见得到管理的,是安全和灵活的,是可问责和透明的,是可解释和可说明的,是注重隐私的。
人工智能系统本质上是社会技术的,这意味着它们是设计、开发和使用中涉及的复杂的人类、组织和技术因素的产物。许多值得信赖的人工智能特征,如偏见、公平、可解释性和隐私,都与社会动态和人类行为直接相关。人工智能的风险和好处可以从技术方面与社会技术因素的相互作用中产生,这些社会技术因素与系统的使用方式、其他人工智能系统的互动、操作它的人以及它部署到的社会环境都息息相关。
使用负责任的人工智能系统与人工智能系统的可信性相对应。人工智能系统本身并不具有风险,通常是环境决定其是否会产生负面影响。人工智能风险管理框架(AI RMF)可以帮助组织增强对构建和部署人工智能系统的环境如何与个人、团体和社区互动和影响的理解。使用负责任的人工智能可以:
协助人工智能设计师、开发人员、部署人员、评估人员和用户更批判性地思考环境和潜在或意想不到的消极和积极影响;
在设计、开发、评估和使用具有影响力的人工智能系统时发挥杠杆作用;
预防、检测、降低和管理人工智能风险。
人工智能风险管理框架的目的
通过认识和管理人工智能系统的风险来培养信任,将有助于维护公民自由和权利并增强安全,同时创造机会激发这一技术完全的潜能。人工智能风险管理框架旨在应对人工智能系统所特有的挑战,并鼓励和帮助不同的人工智能利益相关者主动并有目的地管理人工智能风险。该框架描述了管理人工智能风险的过程,涉及广泛的类型、应用和成熟度,而不考虑行业、规模或对特定类型技术的熟悉程度。与在其他指南中重复信息不同,人工智能风险管理框架旨在填补针对人工智能风险的空白。鼓励人工智能风险管理框架的用户通过当前可用的指导来解决非人工智能特定问题。
人工智能风险管理框架是一个自愿的框架,寻求提供一个灵活的、结构化的和可测量的过程,在人工智能生命周期中前瞻性地和连续地解决人工智能风险。它旨在通过改进理解、检测和预防,帮助组织管理与人工智能系统设计、开发、部署、评估和使用相关的企业和社会风险。使用人工智能风险管理框架可以帮助组织、行业和社会理解并确定其可接受的风险水平。
人工智能风险管理框架不是一份清单,也并不是单独使用的。组织会发现将人工智能风险管理框架纳入企业风险管理的更广泛考虑是有价值的。
人工智能风险管理框架不是一种合规机制。它与法律法规无关,因为人工智能政策的讨论是动态的,并在不断发展。虽然风险管理实践应纳入并符合适用的法律法规,但本文件并无意取代现有的法规、法律或其他授权。
研究界可能会发现人工智能风险管理框架有助于评估值得信任和负责任的人工智能及其相关影响。
通过应用人工智能风险管理框架中的建议,各组织将更有能力治理、描绘、衡量和管理人工智能的风险。使用人工智能风险管理框架可以减少负面影响的可能性和程度,增加个人、团体、社区、组织和社会的利益。
在人工智能系统生命周期的开始阶段应用该框架,将极大地增加由此产生的系统更值得信赖的可能性——个人、团体、社区、组织和社会的风险将得到更有效的管理。框架用户有责任定期将人工智能风险管理框架的功能应用于人工智能系统,因为环境、利益相关者的期望和知识将随着时间的推移和人工智能系统的更新或扩展而不断变化。
NIST与私营和公共部门合作开发人工智能风险管理框架,是由《2020年国家人工智能倡议法》(P.L. 116-283)、《国家安全委员会关于人工智能的建议》以及《联邦参与开发技术标准和相关工具的计划》指导的,并与它所呼吁的更广泛的人工智能努力相一致。本框架的开发过程中,与广泛的人工智能社区合作,为NIST和其他机构的人工智能研究和开发以及评估提供参考。
本框架的第一部分建立了人工智能风险管理过程的背景。第二部分为实施这一过程的结果和活动提供指导,以实现人工智能的利益最大化和风险最小化。人工智能风险管理框架使用手册提供了在人工智能产品、服务和系统开发和部署之前、期间和之后执行本指南时要考虑的示例实践。
人工智能风险管理框架的发展
该框架和支持性资源将根据不断发展的技术、全球的标准状况和利益相关者的反馈进行更新、扩展和改进。随着人工智能风险管理框架的投入使用,将吸取更多的经验教训,为未来的更新和额外的资源提供参考。
人工智能风险管理框架和使用手册将得到更广泛的NIST可信和负责任的人工智能资源中心的支持,该中心包含与可信人工智能的开发和实施有关的文件、分类法、工具包、数据集、代码和其他形式的技术指导。该资源中心还将包括一个关于值得信赖和负责任的人工智能术语的知识库,以及不同的利益相关者如何使用这些术语,同时还包括对值得信赖的特征及其内在挑战有更深入了解的文件。
人工智能风险管理框架为管理人工智能系统的风险提供了高层次的指导。虽然NIST发布的实用指南可作为信息参考,但所有这些指南仍然是自愿使用的。
人工智能风险管理框架的属性
人工智能风险管理框架将努力做到以下几点:
1.以风险为基础,资源效率高,支持创新,并且是自愿的。
2.以共识为导向,通过一个公开、透明的过程制定并定期更新。所有利益相关者都应该有机会为人工智能风险管理框架的发展做出贡献。
3.使用清晰明了的语言,使广大受众能够理解,包括高级行政人员、政府官员、非政府组织领导以及那些非人工智能专业人员。同时仍具有足够的技术深度,对从业人员有用。人工智能风险管理框架应允许在整个组织内、组织间、与客户以及与广大公众交流人工智能风险。
4.提供共同的语言和理解来管理人工智能风险。人工智能风险管理框架应提供人工智能风险的分类学、术语、定义、度量和特征。
5.易于使用,并与风险管理的其他方面很好地配合。该框架的使用应是直观的,并可随时作为一个组织更广泛的风险管理战略和流程的一部分。它应该与管理人工智能风险的其他方法保持一致。
6.适用于广泛的视角、部门和技术领域。人工智能风险管理框架应普遍适用于任何人工智能技术和特定环境的使用案例。
7.以结果为导向,不死板。该框架应该提供一系列的结果和方法,而不是规定一刀切的要求。
8.利用并促进对现有标准、准则、最佳做法、方法和工具的认识,以管理人工智能风险,同时说明需要更多、更好的资源。
9.与法律和法规无关。该框架应支持各组织在适用的国内和国际法律或监管制度下运作的能力。
10.作为一份灵活的文件。随着人工智能可信度和人工智能使用的技术、理解和方法的变化,以及利益相关者从实施人工智能风险管理(尤其是该框架)中学习,人工智能风险管理框架应该随时更新。
*来源:iapp,NIST
声明:本文来自赛博研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。