2024年9月29日,美国加利福尼亚州州长加文·纽森以“不应只考虑模型成本和算力”、“缺乏灵活解决方案”等为由否决了《CA SB1047前沿人工智能模型安全与创新法案》(以下简称《加州AI安全法案》)。该法案一经提出便备受争议,此次法案被否决也反映出美国在AI立法中强调创新发展优先的一贯倾向。今年以来,全球多个国家和地区加快构建和完善AI治理框架,我国应密切关注相关政策法规的进展,包容审慎地推进AI监管,促进AI技术创新与监管的平衡发展。

《加州AI安全法案》的主要特征

《加州AI安全法案》自2024年2月经加州议会起草,经历了12轮修订和审议,9月被加州州长否决。该法案旨在监管包括Google、Meta、Anthropic和OpenAI等全球主要AI领先企业,内容涵盖设立新的监管机构、制定监管大模型的标准、全流程的监管要求及严格的行政处罚,主要体现出以下五个特征。

明确的监管主体。法案明确将在政府内部设立独立于技术部的前沿模型委员会,该委员会将负责动态更新模型监管阈值、审计要求、并提供安全指南等职能。

前沿的监管对象。法案将监管训练成本高于1亿美元,训练期间使用达到10^26 FLOPS(浮点运算)的超大规模AI模型。现有大部分AI大模型尚未达到该门槛,但OpenAI、谷歌和微软等科技巨头表示未来可能很快就会在大模型开发中突破该计算阈值。

全流程的监管要求。法案列出了AI企业应当遵守的各种关键测试和安全要求,主要包括:在模型训练前的必须具备“可立即全面关闭能力”,在模型使用或公开前应开展安全测试与评估,在模型开发中应每年开展保护措施、安全保障等方面的评估,在实际应用中需聘请第三方审计师评估AI安全实践。

严格的行政处罚。违反法案规定的大模型开发者(包括个人)将会被提起民事诉讼,赔偿金额最高可达算力成本的30%;法院可以对出具虚假审计书的审计师、违反信息记录规则的云服务商处以最高5万美元的罚款。加州劳动用工监管机构则可以根据《劳工法典》起诉报复检举人的企业。

广泛的影响力。美国加州是全球50强AI公司中32家总部所在地,拥有多家高影响力的研究和教育机构,发表四分之一的AI相关专利和会议论文。Crunchbase数据显示,2023年全球超过50%的AI风险投资资金都流向了总部位于美国加州的公司,加州无疑是全球AI创新和发展最主要的中心。随着AI技术的全球化发展,《加州AI安全法案》的立法探索也引发了包括欧盟在内众多主要经济体的关注,为各国探索AI监管提供了经验。

各界针对《加州AI安全法案》的主要分歧

《加州AI安全法案》一经公布便引发了广泛争议。加州的主要科技公司、高校与研究机构及加州众议院的民主党成员等均对法案表示强烈反对,并多次公开呼吁抵制。但同时,以埃隆·马斯克为代表的科技领袖、图灵奖得主Yoshua Bengio以及美国非盈利组织人工智能安全研究中心(CAIS)等则公开支持该法案,认为应通过立法手段对技术发展进行规制。综合来看,针对法案的主要分歧集中在AI立法的主导权竞合、AI模型的风险监管标准设定及技术创新与监管的平衡三个方面。

AI立法主导权的竞合。在美国联邦层面,拜登政府试图改善AI监管碎片化、地方化的困境,但实际上美国国会AI立法屡次陷入僵局。参议院多数党领袖舒默在领导两党AI工作组经过三个多月筹备讨论后,也仅提出了一份类似“AI政策路线图”的报告,并表示“不应追求单一的全面AI法案”,与此前宣称要推进全面监管AI的立法的态度大相径庭。在美国州政府层面,科罗拉多州率先通过首部全面AI监管法案,加州也积极跟进开展AI立法探索,力图通过州法案对联邦立法产生积极影响。加州州长加文·纽瑟姆直言,在联邦层面AI立法停滞不前的情况下,推动州立法是合理的。然而,以OpenAI为首的科技企业则公开声称,企业已在内部采取相应的安全防护措施,政府在联邦层面实施AI安全监管即可。这一立场反映了加州科技企业的一贯态度,即否定州立法的必要性,强调法律环境的复杂性可能增加企业的合规负担,主张从联邦层面制定统一的法律框架。考虑到联邦与州政府就AI立法的主导权竞合关系,美国AI监管的进程很可能呈现出纵向基于场景的AI立法先于“大而全”的AI横向立法、州立法先于联邦立法的情况。

AI模型风险的监管困境。法案提出AI的监管标准应基于开发AI模型所需的成本和计算能力,提前规避可能由AI引发的风险。支持者认为,AI可能会对人类构成“毁灭性的打击”,应为大型AI模型设定一系列监管标准,促使行业更加重视安全性与合规性。反对者则认为,“AI毁灭论者”夸大了技术威胁,不仅忽视了较小的、专业化的模型可能带来的风险,也未充分关注到深度伪造、虚假信息等已出现的安全问题。此外,加州州长加文•纽瑟姆在否决声明中表示,加州需要主动采取防护措施来应对AI风险,但法案没有评估AI大模型是否被应用于高风险领域,而是对所有大型系统一概施加严格的标准,可能存在“一刀切”的监管执法情况。由此可见,如何就AI模型存在的风险设定监管标准,各方意见尚难达成一致,这也凸显了基于AI模型的风险标准设定的复杂性。

创新与监管的平衡问题加剧。如何平衡AI创新与安全,始终是《加州AI安全法案》争论的核心问题。一方面,法案支持者强调,通过法律手段实施监管可以防止潜在的灾难性后果,尤其是据此对以利益为导向的企业行为进行约束;强制性的安全测试和法律监管有助于确保AI技术的安全性,进而保护公众权益。另一方面,法案反对者认为,一旦法案通过将会抑制创新。法律环境的高度不确定性及合规成本的增加,尤其会限制小型AI企业和开源开发者的创新潜力。从加州整体立法趋势来看,2024年9月加州州长加文·纽瑟密集批准了17项与AI相关的其他监管法案,重点规制加州已经面临的深度合成、虚假信息和版权威胁问题,呈现出了以州治理需求为主,立足实际应用场景中的风险治理特点。这一系列举措表明加州政府对AI技术发展及其安全合规使用高度重视,也展现了加州在推动创新与强化监管之间寻求平衡的政策取向。

结语与展望

《加州AI安全法案》在立法过程中,也引起了欧盟委员会的高度关注。《加州AI安全法案》与欧盟的《AI法案》在基于风险的方法上具有概念上的一致性,在监管内容上又能构成操作协同性,将有助于推动AI全球监管的一致性。相较而言,两项法案在监管范围、监管对象、监管内容等方面又存有差异。监管范围上,欧盟的风险范围界定更加广泛,除《加州AI安全法案》提到的严重伤害外,欧盟还增加了加剧社会不平等和歧视的风险。在监管对象上,《加州AI安全法案》侧重监管前沿大模型,所设定的监管门槛尚无AI企业达到;欧盟的《AI法案》则针对现有大模型开展监管。在监管内容上,《加州AI安全法案》细化了基础模型监管,尤其在透明度方面,强调了规定的训练前、部署前的通报义务,比欧盟《AI法案》的训练数据披露要求则更加详细。

《加州AI安全法案》被否反映了美国在AI领域强调发展优先的一贯态度,众议院议长南希·佩洛西在法案否决后公开表示赞赏,“AI领域发展与主导不仅仅是大型科技公司,还有小型企业和学术界”。此外,美国加州政府并未停止对AI监管的探索,在否决法案当日,加州州长单独签署了有关生成式AI对关键基础设施风险的评估法案,并要求“对可能导致大量伤亡事件的威胁的立法”,阐明了加州将通过分散式的审慎立法方式持续探索伦理、透明和可信的AI发展路径,为保持全球AI的领先地位提供保障。

从各界对《加州AI安全法案》的争议,以及近期全球AI立法的探索中,我们也可得到有关完善我国AI监管体系的一些启发,尤其在优化促进创新和依法治理相结合的监管路径方面。一方面,积极开展针对AI在应用中的潜在威胁和脆弱性风险分析,基于科学发展规律和实践经验,探索构建多层次AI安全防护措施和高水平技术保护手段。另一方面,加快构建鼓励创新的风险容错机制,构建具有灵活性和可操作性的监管框架,兼顾技术发展的动态性与安全监管的必要性,推动AI健康安全可持续发展。

本文作者

王娜

战略发展研究所

二级分析师

硕士,中级工程师,就职于中国电信研究院,长期从事产业数字化相关研究,近年来专注媒体融合、数字治理、智慧城市等领域研究。

陈凤仙

战略发展研究所

高级分析师

博士,副研究员,就职于中国电信研究院,长期从事网信前沿战略、人工智能、产业经济、科技创新等相关研究。

媒体运营

编审:研发云数字体验设计与研发团队

制图:李银鑫

编辑:王凯雯

审校:董智明 刘馨

声明:本文来自天翼智库,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。