2024 年 7 月 26 日,美国国家标准与技术研究院 (NIST) 发布了《两用基础模型滥用风险管理指南草案》(NIST AI 800-1) 征求公众意见。该指南草案概述了基础模型开发人员如何保护其系统不被滥用以对个人、公共安全和国家安全造成故意伤害的自愿性最佳实践。

该指南草案提供了七个目标,以减轻模型被滥用的风险,并就如何实施这些目标以及如何在实施过程中保持透明提出了建议。七个目标包括:

  • 预测潜在的误用风险;

  • 制定管理滥用风险的计划;

  • 管理模型被盗窃的风险;

  • 衡量滥用的风险;

  • 确保在部署基础模型之前对滥用行为进行管理;

  • 在部署后收集和响应有关滥用的信息;

  • 提供有关滥用风险的适当透明度。

在其附录中,指导意见草案还提供了一份非穷尽的清单,列出了几类防止滥用基础模型的保障措施示例。公众可在 2024 年 9 月 9 日之前提交反馈意见。

NIST发布两份生成式AI最终文件和人工智能标准全球参与计划

此外,7月26日,NIST还发布了三份关于人工智能 (AI) 的最终文件,此前这些文件于 2024 年 4 月发布过草案。这些文件遵循《关于安全、可靠和可信人工智能的行政命令》,并将作为 NIST AI 风险管理框架 (AI RMF) 和安全软件开发框架 (SSDF) 的配套资源。

这三份定稿文件是:

  • AI RMF 生成式 AI Profile (NIST AI 600-1) - 旨在帮助组织识别生成式 AI 带来的 12 种独特风险,并提出 200 多项最符合其目标和优先事项的生成式 AI 风险管理行动;

  • 生成式 AI 和两用基础模型的安全软件开发实践 (NIST 特别出版物 (SP) 800-218A) - 旨在扩展 SSDF,部分是为了解决生成式 AI 系统的一个主要问题,即它们可能会受到恶意训练数据的破坏,从而对 AI 系统的性能产生不利影响;

  • 人工智能标准全球参与计划(NIST AI 100-5)——旨在推动全球人工智能相关共识标准的制定实施、合作协调以及信息共享。

声明:本文来自青青律议,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。