2024年9月5日,澳洲工业、科学和资源部(DISR)发布了自愿性AI安全标准。DISR强调,该标准为组织建立了一套统一的实践,以确保安全和负责任地开发和部署人工智能。
01 为什么要实施自愿性标准?
该标准为政府考虑强制性护栏选项时的未来立法设定了预期,它还为组织提供了AI治理和道德实践的最佳范本,从而为他们提供了竞争优势。
该标准旨在指导组织:
提高澳大利亚的安全和负责任的能力水平;
保护人民和社区免受伤害;
避免其组织的声誉和财务风险;
提高组织和社区对人工智能系统、服务和产品的信任和信心;
符合澳大利亚人民的法律义务和期望;
在国际经济中更无缝地运作。
数据显示,采用AI和自动化预计将为澳大利亚带来1700亿至6000亿美元的GDP。首个自愿性AI安全标准将为澳大利亚提高AI的安全性、质量和可靠性带来长期利益。它将支持更广泛地使用AI产品和服务、增加市场竞争和技术创新机会。
一个坚实的监管框架对确保澳大利亚为AI带来的转型做好准备至关重要,这可以通过紧急引入拟议的强制性护栏来实现。
澳大利亚科学院院长Chennupati Jagadish教授表示,“这些提案,包括引入澳大利亚人工智能法案,是朝着正确方向迈出的重要一步,以制定适当应对人工智能的机遇、挑战和风险的法律法规。”
02 自愿护栏
该标准由10个自愿性护栏组成,适用于整个AI供应链中的所有组织。该标准进一步指出,自愿护栏是组织改进其AI实践并确保遵守未来潜在法规的准备措施,可帮助组织从AI中受益,同时减轻和管理AI可能对组织、人员和团体构成的风险。
具体而言,安全标准建议组织应:
建立、实施和发布问责流程,包括治理、内部能力和监管合规战略;
建立和实施风险管理流程以识别和降低风险;
保护AI系统并实施数据治理措施,以管理数据质量和来源;
测试AI模型和系统以评估模型性能并在部署后监控系统;
使人工控制或干预AI系统以实现有意义的人工监督;
告知最终用户支持AI的决策、与AI的交互以及AI生成的内容;
为受AI系统影响的人们建立流程,以质疑其使用或结果;
对AI供应链中的其他组织保持数据、模型和系统的透明性,以帮助他们有效应对风险;
保存和维护记录,以便第三方评估对护栏的遵守情况;
让利益相关者参与进来,评估其需求和情况,重点关注安全、多样性、包容性和公平性。
该标准还解释了AI系统的开发人员和部署人员必须采取哪些措施来遵守防护机制。
根据该标准,前9个护栏与拟议的在高风险环境中部署AI的强制性护栏保持一致。但第10个自愿护栏除外,它强调了与利益相关者持续接触以评估其需求和情况的重要性。
03 实践案例
该标准还包含了实例,以演示组织如何在不同的AI使用案例中应用防护机制。这些示例涵盖了通用AI聊天机器人、面部识别技术、推荐引擎和仓库事故检测系统等场景。每个示例都展示了特定的护栏如何帮助管理在实际环境中部署AI系统的风险和优势。
例如,NewCo是澳大利亚一家快速发展的B2C公司,拥有50名员工,年营收为350万美元。在公司新产品即将发布之际,NewCo的销售主管提议为网站采购一个AI聊天机器人,可与客户互动以回答常见问题。
自愿性标准给出了NewCo在此背景下是否遵循自愿性AI安全标准带来的不同后果——
当遵循上述标准时,NewCo可实现成功的产品发布,客服团队使用通用AI来查找相关的公司文档,从而更快地回答客户查询,提高员工效率和客户满意度。
当NewCo不遵循上述标准时,其采购的AI聊天机器人则可能产生超出功能需要的个人信息收集;为最大程度提升销售额,向客户提供大于约定优惠力度的折扣,导致无法成交;显示折扣时的性别歧视等问题。
来源|Dataguidance News、DISR
编译|郑惠敏
审核|张羽翔
声明:本文来自上海市人工智能与社会发展研究会,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。