2023年6月8日,Google正式发布了SAIF(Secure AI Framework)安全AI框架,阐述了其保护人工智能的愿景。
在Google看来,SAIF受到了在软件开发中应用的安全最佳实践的启发,如审查、测试和控制供应链,并结合了我们对AI系统特定安全大趋势和风险的理解。
在公共和私营部门建立一个框架对于确保负责任的参与者保护支持AI进步的技术至关重要,以便当实施AI模型时,其默认就是安全的。SAIF的发布标志着一个重要的第一步。
SAIF旨在帮助减轻AI系统特定的风险,如窃取模型、训练数据的数据污染、通过提示注入注入恶意输入和提取训练数据中的机密信息。随着AI能力在全球范围内越来越多地融入产品中,遵守一个大胆而负责任的框架将变得更加关键。
Google提供了SAIF的摘要介绍和从业者如何实施 SAIF 的示例两份文档,下载方式见文末。
SAIF由六个核心要素组成:
1-将强大的安全基础扩展到AI生态系统中
这包括利用过去二十年来建立的安全默认基础设施保护和专业知识,来保护AI系统、应用程序和用户。同时,发展组织专业知识以跟上AI的进展,并开始在AI和不断演变的威胁模型的背景下扩展和调整基础设施保护。例如,像SQL注入这样的注入技术已经存在了一段时间,组织可以采取适应性措施,如输入过滤和限制,以更好地防御类似提示注入的攻击。
2-扩展检测和响应以将AI纳入组织的威胁范围
及时性对于检测和应对与AI相关的网络安全事件至关重要,将威胁情报和其他能力扩展到组织中可以提高效果。对于组织来说,这包括监测生成式AI系统的输入和输出,以便检测异常,并利用威胁情报来预测攻击。这通常需要与信任和安全、威胁情报和反滥用团队进行合作。
3-自动化防御以跟上现有和新的威胁
最新的AI创新可以提高对安全事件的响应规模和速度。对手可能会利用AI来扩大他们的影响力,因此利用AI及其当前和新兴的能力来保持灵活和具有成本效益的保护至关重要。
4-协调平台级别的控制,确保组织内部的安全保持一致
控制框架的一致性可以支持AI风险缓解,并在不同的平台和工具上扩展保护措施,以确保所有AI应用程序以可扩展和成本有效的方式获得最佳保护。在谷歌,这包括将默认安全保护措施扩展到像Vertex AI和Security AI Workbench这样的AI平台,并将控制和保护措施融入软件开发生命周期中。解决通用用例的功能,如Perspective API,可以帮助整个组织受益于最先进的保护措施。
5-调整控制措施以适应缓解措施并为AI部署创建更快的反馈循环
通过持续学习来不断测试实施方案,可以确保检测和保护能力应对不断变化的威胁环境。这包括基于事故和用户反馈的强化学习等技术,并涉及更新训练数据集、对模型进行微调以对抗攻击,并允许用于构建模型的软件在上下文中嵌入更多的安全性(例如,检测异常行为)。组织还可以定期进行红队演练,提高基于AI的产品和能力的安全保障水平。
6-将AI系统风险与周围的业务流程相结合
最后,进行与组织如何部署AI相关的端到端风险评估可以帮助决策。这包括对端到端业务风险的评估,例如数据来源、验证以及对特定类型应用程序的操作行为监控。此外,组织应构建自动化检查来验证AI的性能。
对于如何打造一个安全的AI社区和下一步的行动,Google表示将采取五个步骤,来支持和推进框架,包括:
通过在未来几个月宣布关键合作伙伴和贡献者,以及持续与行业进行合作,促进对SAIF的行业支持,帮助开发NIST AI风险管理框架和ISO/IEC 42001人工智能管理系统标准(行业首个人工智能认证标准)。
直接与组织、客户和政府合作,帮助他们了解如何评估和减轻人工智能的安全风险。
与谷歌领先的威胁情报团队,如Mandiant和TAG分享涉及人工智能系统的网络活动的见解。
扩大我们的漏洞猎人计划(包括我们的漏洞赏金计划),以奖励和激励围绕人工智能安全进行研究。
继续与GitLab和Cohesity等合作伙伴提供安全的人工智能解决方案,并进一步开发新的功能来帮助客户构建安全系统。
对于Google发布的SAIF框架,本届RSAC创新沙盒冠军HiddenLayer表示:安全人工智能框架SAIF正值关键时刻,这表明全球都有责任快速采用来确保人工智能的安全性。承担这一责任的主要是网络安全社区,他们需要保卫人工智能/机器学习技术,确保威胁行为者永远无法阻碍我们的技术进步和创新。
其他更多要点,欢迎下载报告原文阅读。
该报告一组2份,内容分别为:
https://services.google.com/fh/files/blogs/google_secure_ai_framework_approach.pdf
https://services.google.com/fh/files/blogs/google_secure_ai_framework_summary.pdf
声明:本文来自安全喵喵站,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。