在5月31日下午的“AIGC大模型AI安全治理与实践——生成式人工智能主题研讨会”上,上海赛博网络安全研究员高级研究员周雪静发表了《生成式人工智能国内外监管形式解读》的主旨演讲,围绕生成式人工智能的应用现状、国内外的监管形势以及未来AIGC的监管趋势,进行了详细的解读。
首先,当我们在探讨生成式人工智能的监管问题的时候,我们讨论的监管对象不仅仅是ChatGPT和大模型,而是人工智能在当下技术和应用发展趋势下的监管情境。
1950年的图灵测试被视为人工智能研究起源的重点节点,此后,人工智能一直处于发展阶段。近几年,随着数据要素的流通,CPU、GPU、DPU以及边缘计算带来的智能算力提升,人工智能的发展提速。当前,以ChatGPT为代表的大模型应用预示着人工智能的创新应用和监管进入到全新的阶段。
01 监管对象:生成式人工智能的应用现状
周雪静先对生成式人工智能中涉及的关键定义进行了讲解。“大模型”是“大算力+强算法”,这是AI的基础设施;“生成式人工智能”根据国内法律法规的界定,是基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术,这是技术层面的定义;“生成式人工智能应用”“人工智能生成内容(AIGC)”“通用人工智能(AGI)”均是当下热议的应用层面的概念。
通过对610个国内外应用进行统计,当前,生成式人工智能可包含48个分类,具体根据应用场景,可以分为文本对话、文案写作、图像生成、视频创作、音乐创作、特定实验(蛋白质序列)模拟类以及代码编写协助等;根据应用功能,可分为针对应用场景或特定领域的应用和针对不同应用场景或任务领域的通用人工智能(AGI),而微软、OpenAI都在迈向通用人工智能,这是未来的一个主要发展方向。
02 中国生成式人工智能监管解读
周雪静指出,过去十年,国内人工智能的发展可以大致分为三个阶段:2013年至2016年是国内人工智能的初步发展阶段,这个阶段主要是在产业、经济的发展规划的文件中提及人工智能,同时以技术赋能产业的方式鼓励人工智能的发展;2016年至2017年是飞速发展阶段,这个阶段有两个重要的事件,第一个是2016年,国务院印发“十三五”国家战略性新兴产业发展规划,增加了人工智能有关内容,第二个是2017年国务院发布首个中国人工智能国家战略《新一代人工智能发展规划》,为后续国标和行标的制定和印发奠定了基础。在2017年之后,国内人工智能持续进行技术的更新迭代,进入一个以技术找场景、以技术找产业的阶段。2017年至今,是人工智能的针对性发展阶段。国内人工智能持续进行技术的更新迭代,进入一个以技术找场景、以技术找产业的阶段。与此同时,人工智能的监管也一直在推进,比如2020年发布的《国家新一代人工智能标准体系建设指南》,为标准制定指明了方向。
总体来看,当前国内目前还没有一部针对人工智能的通用性的监管法律,采用的是通过多部法律法规衔接,针对深度合成技术、生成式人工智能技术和算法推荐技术不同业态分别立法,基本初步形成了一套完备的人工智能监管体系。
随后,周雪静重点针对《生成式人工智能服务管理办法(征求意见稿)》进行了解读。根据第二条之规定,明确了本法的监管对象包括“向中华人民共和国境内公众提供服务的主体”(涵盖境外主体但向境内提供服务的情形)和“利用了生成式人工智能产品提供服务的主体”(包含组织、个人,包含自研产品、API接入小程序或应用)。周雪静特别指出,针对个人调用ChatGPT接口,封装小程序在国内提供服务的情形,也是需要被纳入监管的。可以看出,《管理办法》的监管对象范围较广,基本覆盖了生成式人工智能在境内的使用情形。
此外,《管理办法》也在模型监管和内容监管上提出了相应的要求。模型监管主要聚焦在训练数据、算法设计和模型生成和优化上,围绕这三个维度,重点关注模型是否存在AI歧视、模型本身存在的风险、知识产权侵权、个人信息侵权问题以及训练数据的真实、准确、客观、多样。内容监管主要是根据《管理办法》第四条和第十二条的规定。可以发现,模型监管和内容监管具有一定的关联性,内容监管更关注是否涉及国家安全、内容的真实准确性、是否存在歧视、知识产权侵权、虚假信息传播、商业秘密以及个人隐私泄露的问题。
周雪静分享了基于《管理办法》的多主体的链路监管。监管对象既包括主体又包括个人,其在向公众提供生成式人工智能产品或者服务之前,可以分为三个阶段,其中每个阶段都需要进行监管。第一个阶段可以称之为“准入”阶段,即在提供产品或者服务之前需要进行“评估”和“备案”两个步骤。第二个阶段是向公众提供服务的阶段,提供服务的方式既包括直接提供生成式人工智能产品,又包括通过可编程接口支持用户自行生成内容,这个阶段中生成式人工智能服务提供者同时也是内容的提供者,需要承担内容生产者的责任。第三个阶段是事后反馈的阶段,即如果其他组织或个人使用生成式人工智能的产品或服务进行了恶意的行为,那么提供者需要采取相应机制去阻断这些行为。
针对整个过程中可能出现的违法行为,如果是涉及到《网安法》《数安法》《个保法》中有相关规定的情形,则适用三法中的相关条款进行规制;如果涉及以上三法中并未提及的情形,按照《管理办法》的规定,将对提供者采取警告、批评、责令限期改正等措施进行惩罚,特别严重的,将对提供者采取暂停或者终止服务的措施,并处以罚款。
此外,周雪静提醒相关企业除了关注法律法规的强制性规定,也要关注一些地方性政策举措,比如北京市发布的《北京市促进通用人工智能创新发展的若干措施(2023-2025)(征求意见稿)》,其中提到了加强与网信办的沟通协调、实行包容审慎的监管态度等等。在这些地方性政策中,我们关注到监管措施会更加灵活、包容审慎,希望通过机制和流程的创新来加强行业的自律自制,而非采取一刀切或者过度监管的方式,因而这也是后续监管的方向之一。
03 美欧AIGC监管形势
人工智能领域的竞争从技术研发、数字经济层面逐渐扩展到国际规则制定层面。从去年ChatGPT诞生以来,欧美国家也采取了一系列的行动,例如美国商务部就ChatGPT等人工智能技术相关的问责措施正式公开征求意见;欧盟国家如法国、西班牙、意大利等也在对ChatGPT进行进一步审查。美国在监管上更加灵活开放,欧盟则遵循GDPR的原则,对于ChatGPT类大模型带来的数据隐私方面的风险以高标准进行监管和检查。
美国对于AIGC是全面鼓励、拥抱的姿态,积极主动地通过立法和监管来谋求全球科技主导地位,强调监管灵活性。5月16日,OpenAI CEO Sam Altman在美国参议院就AI技术的潜在危险作证,并敦促立法者对制造先进AI的组织实施许可要求和其他法规。在未来六个月内,OpenAI坚决不会训练GPT-5。Sam提议政府干预监管,具体有以下几个措施:1. 成立一个新的政府机构负责为大模型颁发许可,由美国国会「定义能力阈值」,对于能力远达不到最先进的大模型技术,免除监管负担,鼓励创新。2. 创建一套AI 模型安全标准,包括危险能力评估,模型必须通过安全测试,包括是否可以「自我复制」和「逃避监管」。3. 由独立专家对模型的指标情况进行独立审计。
观察美国从2016年至今的一系列关于人工智能的政策文件,我们能够从文件名称中发现美国的监管趋势,2016年为“做好准备”,2019为“倡议”,2020年为“备忘录”,之后则为“法案”“风险管理框架”,虽然整体上美国持灵活监管的态度,但又不乏积极。下一步需要关注的是,美国会对现有的生成式人工智能系统进行公开评估,评估其是否符合美国《人工智能法案》此外,会发布关于“联邦机构应如何使用人工智能系统的政策指南”草案。
相对于美国,欧盟呈现出强监管的态势,希望重塑人工智能的整体治理性规范。从之前发布的《塑造欧洲数字未来》到《人工智能白皮书》、GDPR、《数字服务法案》、《数字市场法案》等等看出,欧盟在数字领域和人工智能领域一直走在前列,而且整体推进力度也较强。以今年5月份通过了法案谈判授权草案的《人工智能法案》为例,《人工智能法案》监管的核心是基于风险识别,不同风险层级的人工智能所承担的责任和义务有所区分。欧盟将人工智能风险分为四个级别:风险最小、有限风险、高风险和风险不可接受,风险最小级别的情形是不予关注,而风险不可接受则不能获得准入,我们要重点关注的是有限风险和高风险。ChatGPT生成式大模型产品和服务属于高风险层级,所以它不仅需要不仅需要遵循《人工智能法案》的相关条款,也需要遵循额外的透明度的要求,如进行AI标识、防恶意内容生成以及训练数据合法性的问题。
周雪静对《人工智能法案》的监管范围进行了讲解,第一个情形是,只要是将人工智能系统投入到欧盟使用,就处于《人工智能法案》的监管范围以内。此外,对于不向欧盟境内提供服务,但在欧盟内设有机构或位于欧盟内的人工智能系统的提供者也属于监管范围内的对象。第二个是位于欧盟境内的部署者;第三个是对于提供者或部署者设立于或位于第三国,但将人工智能系统输出的内容在欧盟使用的情形。
04 生成式人工智能未来监管趋势
目前,我国的政策落实最快,走在前列。欧盟及美国相应监管举措预计在今年年底逐步出台。安全合规与技术创新的平衡是企业在监管环境下需重点考虑问题,主要围绕三个方面,一是可信可控:西方国家强化域外管辖,我国坚持可信可控原则,支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源;二是监管细化:人工智能监管将呈现分行业、分场景、分应用、分平台、分技术的区别化监管体系,兼顾各方权利与责任;三是软性法律:通过差异化的技术标准与规范,应用设计的安全默认原则、系统测试方案的评估与审核等,为人工智能应用的发展提供更灵活的配套监管举措。
最后,周雪静建议,为了应对挑战,AIGC企业需快速建立内部监管机制。在遵守中国法律法规的前提下,学习、贯彻业务开展地的法律法规要求;同时推动自评估和第三方评估互相结合、互为补充,评估主要围绕三个方向进行:训练数据、模型算法以及生成内容。
声明:本文来自上海数据安全协同创新实验室,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。