2022年5月25日,新加坡发布人工智能(AI)治理评估框架和工具包——A.I.VERIFY。该评估框架和工具包由新加坡资讯通信媒体发展局(IMDA)和个人数据保护委员会(PDPC)共同开发,是全球首个官方发布的AI检测框架和工具包。
随着人工智能技术的普及,越来越多的产品和服务应用人工智能技术进行自动化决策,人工智能治理成为国际社会高度关注的问题。近年来,新加坡为加快数字经济发展,在不断推动社会数字化转型的同时,也注意防范可能存在的安全风险,加强对人工智能的监管。2019年1月,新加坡就发布了亚洲首个人工智能监管模式框架(草案);2020年1月,又发布人工智能监管模式框架(第二版)。在总结以往经验的基础上,新加坡又加大投入,在全球抢先发布AI治理评估框架和工具包,邀请全球互联网巨头企业加入,体现了新加坡在发展人工智能技术、推动人工智能治理方面的雄心。
(新加坡AI青少年营)
A.I.VERIFY属于最简化可行产品(MVP),旨在结合人工智能系统的技术评估和程序检查,提高评估主体与利益相关者之间的透明度。通过融入国际普遍接受的人工智能伦理准则、指南和框架,该框架最终形成了11项关键人工智能伦理准则和5大支柱。11项伦理准则包括:透明性、可解释性、可复现性、安全性、鲁棒性、公平性、数据治理、可审计性、人类能动性与监管以及包容增长、社会和环境福利。5大支柱描述了系统所有者和开发人员如何构建客户与消费者之间的信任关系,分别是人工智能和人工智能系统使用的透明性、理解人工智能模型如何做出决策、确保人工智能系统的安全和弹性、确保公平性以及确保人工智能系统的适当管理和监管。
新加坡政府表示欢迎各公司自愿参与该产品的试用。工具包将为人工智能系统的开发人员、管理人员和业务合作伙伴生成一份评估报告,报告内容涵盖影响人工智能系统性能的一些主要领域。其中,透明度领域包括:使用人工智能能否实现既定结果、人工智能模型如何做出决策、人工智能预测的决策是否会出现偏差等。此外,报告还涉及人工智能系统的安全领域、弹性领域、人工智能系统问责制领域和监督领域。
(新加坡智慧城市建设)
作为人类智能的产物,人工智能治理需要健全的伦理体系。随着人工智能技术的不断演进和应用场景日趋广泛,促进“人工智能向善”成为全球普遍达成的共识,建立一套能得到各国普遍接受的公正、透明、合理的评估体系至关重要。但是,经济利益的激烈竞争、意识形态的固有差异、规则标准的斗争博弈等因素,注定人工智能治理是一个充满国际竞争的领域。在新加坡的示范带动下,可以预见,其他各国也将紧跟发展趋势,加紧出台相关意见方案,抢占人工智能治理高地。
信息来源 / Source of Information
1.https://www.pdpc.gov.sg/news-and-events/announcements/2022/05/launch-of-ai-verify---an-ai-governance-testing-framework-and-toolkit
2.https://www.imda.gov.sg/news-and-events/Media-Room/Media-Releases/2022/Singapore-launches-worlds-first-AI-testing-framework-and-toolkit-to-promote-transparency-Invites-companies-to-pilot-and-contribute-to-international-standards-development
声明:本文来自苏州信息安全法学所,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。