作者丨蔡鹏 肖莆羚令

引言

生成式人工智能是一种利用算法与数据自动生成新内容的技术,在各行各业,特别是科技、文化、教育、娱乐和新闻等多个领域,具有广泛的应用和发展空间。然而,生成式人工智能也面临着数据安全、知识产权、伦理道德等方面的挑战和风险。

7月13日,国家网信办会同六部委共同发布《生成式人工智能服务管理暂行办法》(“《办法》”)。《办法》充分吸收了此前各界对于征求意见稿的反馈意见(我们此前对征求意见稿进行了逐条解读,详情请见《一文透视<生成式人工智能服务管理办法(征求意见稿)>》),明确坚持发展和安全并重、促进创新和依法治理相结合的原则。

在未来的一段相当长的时间里,生成式人工智能势必成为科技产业和数据合规领域的热门议题。本文试图探析《办法》背后的立法理念和监管路径,以期一窥生成式人工智能未来的发展方向和监管趋势。

一、立法之谨:合规义务的精准调整

在四月发布的《生成式人工智能服务管理办法(征求意见稿)》(下称“征求意见稿”)中,涉及生成式人工智能内容安全的要求占据了较大的篇幅。这些要求被以法定义务的形式施加给企业,却没有充分考虑企业在落地过程中面临的现实困境,甚至可能挑战生成式人工智能的技术逻辑。这一点在征求意见稿发布后受到了广泛的讨论。

《办法》对征求意见稿中的生成式人工智能服务提供者(“提供者”)的合规义务进行了优化调整,为企业在谋求发展与满足合规义务之间预留了一定缓冲地带,充分体现了立法的谦抑性。

一方面,《办法》较之征求意见稿减轻了企业的合规负担,包括将企业对训练数据真实性、准确性的控制义务由征求意见稿中命令式的100%保证义务降格为尽职性的努力承诺,大大降低了企业因难以核实全部训练数据真实性、准确性而被迫违法的风险(第七条);考虑到了提供者对使用者生成内容的有限控制能力,删除了禁止提供者生成歧视性内容的规定。

另一方面,《办法》为提供者创设了一定的“发挥空间”。提供者可以通过服务协议方式教育、监督生成式人工智能服务使用者的合法使用,控制并合理转嫁合规风险(第九条)。同时,征求意见稿中关于提供者一旦发现网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件必须暂停或终止服务的规定被修改为可以依法依约灵活采取警示、限制功能,暂停或终止服务等多种措施,给予提供者一定的自由裁量权(第十四条);征求意见稿中关于提供者发现违规生成内容需在3个月内优化训练模型的规定也一并删除,尊重提供者在提升算法模型性能和提高内容管理方面的主观能动性。

二、立法之勉:生成式人工智能产业的支持政策

《办法》在原则性条款和具体规定中,都体现了国家对生成式人工智能产业发展的鼓励和支持的态度,既为产业创新提供了政策导向和法律保障,又为产业监管提供了科学合理和平衡适度的框架。

首先,《办法》在征求意见稿基础上新增原则性条款,明确提出国家坚持发展和安全并重、促进创新和依法治理相结合的双重原则,为生成式人工智能产业监管划定了基调(第三条)。其次,《办法》将《科学技术进步法》作为其上位法,强调其对推动人工智能服务科技进步的核心理念,蕴含着在高效、协同、开放的国家创新体系下,充分发挥市场配置创新资源的立法导向(第一条)。

再次,《办法》针对生成式人工智能服务提出了多元化、多层次的鼓励方案。在技术层面上,鼓励算法、框架、芯片、配套软件平台等产业链环节、产品层级的创新;在基础设施建设上,鼓励各级政府和企业共同参与生成式人工智能基础设施和公共训练数据资源平台的建设,促进算力资源协同共享(第六条);在市场参与度上,支持行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等各类角色在生成式人工智能技术创新、数据资源建设、转化应用、风险防范等方面的协作配合(第五条);在资源投入上,推动利用公共数据进行算法训练;在产业扶植上,鼓励企业采购安全、可信赖的芯片、软件、工具、算力和数据资源。

这些规定将在未来数年的生成式人工智能的“军备竞赛”中发挥效用,为企业和国家在全球化的竞争格局中提供了安全保障和稳定支持。

三、立法之巧:行业监管的特性和路径

与征求意见稿相比,《办法》更加突出行业监管的特性。第十六条规定,网信、发展改革、教育、科技、工业和信息化、公安、广播电视、新闻出版等部门,依据各自职责依法加强对生成式人工智能服务的管理。国家有关主管部门针对生成式人工智能技术特点及其在有关行业和领域的服务应用,完善与创新发展相适应的科学监管方式,制定相应的分类分级监管规则或者指引。这或许意味着,此后对于生成式人工智能的监管将以行业为线索,逐步呈现差异化和针对性。

这种行业导向的监管模式符合生成式人工智能的强技术属性,也有利于各行业根据具体需求为生成式人工智能服务制定更合理的监管标准和措施,既能充分发挥生成式人工智能服务的经济价值,又能有效防范合规风险。例如,对于在新闻业中应用的生成式人工智能,如何防止人工智能生成、传播虚假新闻可能是重要的监管目标;而对于金融行业的生成式人工智能,如何保证其对用户背景和画像的客观性和公正性,以及如何应对系统遭受攻击时对业务连续性的影响则更为紧迫。

通过行业为线索的监管方式,各部门能够更加精准地理解和管理生成式人工智能服务,为不同行业制定具体的监管措施和指导方针,共同推动我国生成式人工智能服务行业的健康发展。

四、立法之智:全球监管的核心抓手

在全球范围内,各国对于人工智能的监管也在积极探索和实践中。从目前已经出台或正在制定的人工智能监管法规来看,算法透明度和分类分级是两大共同关注的核心议题。

算法透明度是指算法的设计、训练、优化、运行等过程能够向外界公开或解释其原理、逻辑、数据、结果等信息,以便进行有效的监督和评估。算法透明度对于监管和社会的可持续发展至关重要。透明的算法可以使用户和相关利益相关方更好地理解系统的决策依据,从而增加对人工智能系统的信任和接受度,同时可以帮助监管机构审查和评估人工智能系统的合规性和公平性,确保其不会产生歧视性、偏见或不当的行为。此外,透明的算法能够促进人工智能技术的创新和进步,通过学习和纠正错误,提高系统的性能和效果。《办法》新增提供者需“基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性”就是最直观的体现(第四条)。此外,《办法》援引《互联网信息服务算法推荐管理规定》对算法备案的要求,也是一种确保算法透明度的方式(第十七条)。

分类分级是指根据人工智能技术及其应用场景对可能产生的风险和影响进行不同程度地划分,并采取相应强度的监管措施。通过分类分级的监管框架,监管机构可以根据人工智能系统的应用领域、风险程度和技术成熟度,制定相应的监管要求和措施。这有助于确保监管更加精准和针对性,避免一刀切的监管模式。同时,分类分级的监管框架也可以促进创新和发展,因为根据不同级别的监管要求,企业和研究机构可以更好地规划和管理技术研发,降低合规成本和风险。《办法》已经明确提出了人工智能分类分级的要求,这种监管方式也与《数据安全法》对于数据分类分级保护的手段一致,不排除后续行业主管部门或可就人工智能分类分级和数据分类分级两方面要求形成相关联的分类分级规则(第十六条)。

在中国以外的其他地区,算法透明度和分类分级的监管思路也在各国立法中有所呈现和实践,例如:

  • 欧盟《人工智能法案(草案)》将人工智能系统分为不可接受的风险、高风险、有限风险和低/轻微风险四类,针对不同级别的人工智能系统设置了不同的合规要求,并要求高风险人工智能系统需在欧盟专门建立的数据库中备案;

  • 美国《数据隐私和保护法案(草案)》要求,涵盖实体在应用算法时需向联邦贸易委员会提交算法影响评估和算法设计评价进行备案,并应要求向国会提交算法影响评估和算法设计评价;

  • 澳大利亚公布的人工智能立法计划中,同样明确将对人工智能进行分级管理,将人工智能分为低风险、中风险、高风险三种级别;

  • 加拿大公布的《人工智能和数据法案》配套文件中明确,将针对具有重大影响力的人工智能系统设置更为严格的监管规则。

随着全球生成式人工智能进入黄金发展阶段,相关监管立法也预期呈现井喷式增长,各国对生成式人工智能的监管思路的探索以及异同都是值得持续关注的问题。

结语

生成式人工智能服务不仅拥有广阔应用前景和巨大发展潜力,同时亦面临着诸多挑战和风险。《办法》作为我国首次对生成式人工智能服务进行专门规范的法规,在立法理念、监管路径、核心问题等方面充分体现了包容审慎、兼容谦抑的姿态。《办法》的出台不仅为我国生成式人工智能服务行业的健康发展和规范应用提供了法律依据和制度保障,也为全球人工智能监管提供了有益的借鉴和参考。

作者简介

蔡鹏 律师

北京办公室 合伙人

业务领域:网络安全和数据保护, 知识产权权利保护, 合规和反腐败

特色行业类别:通讯与技术, 健康与生命科学

肖莆羚令 律师

北京办公室 知识产权部

声明:本文来自中伦视界,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。