背景
6月21日,上海市大模型合规指导服务中心于杨浦区长阳创谷举办了第四期“大模型发展和安全”专题系列沙龙,会议围绕杨浦区在大模型发展方面的部署、成果与未来发展方向进行了提纲挈领且内容详实的阐述,并就大模型安全发展进行了学术交流与探讨。
自2023年8月《生成式人工智能服务管理暂行办法》正式施行起,我国已经在大模型安全方面形成由资质监管、算法监管、数据输入和内容输出监管构成的初步监管框架。在此背景下,相关企业同步进入大模型或生成式人工智能高要求合规阶段,同时面临着技术飞速更迭下监管滞后带来的困难。
围绕这一问题,本文将就我国大模型的现有监管体系面临的三大问题进行简单评析。
第一大问题:资质种类繁多,要求复杂
相关企业的业务通常既包括信息服务和电子邮件、短信服务等增值电信业务,也涉及网络新闻、网络文化、网络出版等内容,可能涉及互联网信息服务经营许可证(ICP许可证)、增值电信业务经营许可证-在线数据处理与交易处理业务(EDI许可证)和增值电信业务经营许可证-移动网信息服务业务(SP许可证)等互联网信息服务提供者基础资质,以及互联网新闻信息服务许可、网络出版服务、网络文化活动和网络视听节目服务相关许可和生成式人工智能服务相关行政许可等提供具体服务的特殊资质。
然而,目前我国实际并无专门针对生成式人工智能的行政许可,企业主体在进行资质申请之前,需要就所从事业务和属于何类主体进行明确。根据上述资质的名称,可以发现资质监管实则详细区分了企业业务。此外,可能涉及到的《互联网信息服务管理办法》《中华人民共和国电信条例》《算法推荐管理规定》《深度合成管理规定》《生成式人工智能服务管理暂行办法》《应用程序管理规定》《网络信息内容生态治理规定》等多部相关规范采用的主体术语都存有差异,这不可避免地使企业在多重主体身份符合性的判断上面临困难。
第二大问题:监管强度高,但合规指引不够清晰
算法合规要求的主要依据为《算法推荐管理规定》《深度合成管理规定》和《生成式人工智能服务管理办法》三大监管规范,主要涉及算法备案、安全评估和透明度要求。其中,算法备案和安全评估制度都能在既有规范中寻得明确的合规指引。算法备案具体要求包括备案主体、应当备案的算法、备案填报内容和备案程序等内容;安全评估制度除了赋予企业自评估合规义务外,还要求监管机构定期对企业进行评估。
然而,算法透明度的规定大多属于抽象表述,较为具体的规定通常采用“告知”的形式来落实。例如,《生成式人工智能服务管理暂行办法》只是规定相关主体采取有效措施提升透明度,《算法推荐管理规定》和《深度合成管理规定》则更为具体地要求以显著方式告知用户服务提供情况,并以适当方式公示算法相关原理、目的意图和主要运行机制,或明确规定在特定情况下取得用户单独同意,如提供人脸、人声等生物识别信息编辑功能深度合成服务时。
第三大问题:为大模型输入和输出双端设置审核义务,但仍需进行持续调整和动态完善
《网络安全法》《数据安全法》《个人信息保护法》《深度合成管理规定》《AIGC暂行办法》等都对输入端和输出端设定了审核要求,即输入或训练数据审核和生成内容审核,配套制度还包括模型生成内容标识制度、投诉举报机制以及监测预警、应急处置等安全举措。这些制度的目的都在于排除有害内容和不实信息,确保信息与舆论阵地的安全。
然而,目前的审核义务与安全举措只是针对当前国内大模型技术发展的现有突出问题,未来大模型发展必将面临不断涌现的新技术带来的新威胁,以及为解决新风险可能面临的新监管难题。例如,多模态大模型集合了多种数据类型、多元应用场景以及多重能力,风险和复杂程度都将多倍提升,因此监管应当紧随技术更迭,保持持续调整和动态完善。
总结
综上,目前大语言模型只是直接处理自然语言,但随着跨模态编码器(cross-modal encoder)的出现,大模型会朝着自然语言处理与跨模态处理相结合的方向快速发展,为智能交通、医疗等领域提供解决方案,大模型恶意应用、提示词泄露隐私等挑战也会接踵而至。
对此,建议以算法、模型、算力、数据以及产业链等AI生态体系为基础,对应构建AI治理的生态体系,采用政府主导、企业自律和公众参与的协同治理模式,制定法律法规、标准规范、伦理指南等系统化的治理框架,为人工智能相关技术的蓬勃发展保驾护航。人工智能发展的浪潮不曾停歇,监管应当时刻保持警惕,安全掌舵,敏捷适应时代脉搏。
本文作者
王梦菲 赛博研究院 高级研究员
声明:本文来自赛博研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。