9月8日,美国康涅狄格州民主党参议员理查德·布卢门撒尔(Richard Blumenthal)和密苏里州共和党参议员乔什·霍利(Josh Hawley)共同发布了一项两党人工智能立法框架(下文简称“框架”)。参议员布卢门撒尔认为“这个两党框架是里程碑式的,是第一个严格的、全面的立法蓝图,旨在实现真正和可执行的人工智能保护政策……”参议员霍利也强调,框架中提出的原则应“成为国会人工智能监管行动的支柱”。而在今年6月,欧洲议会已经通过了关于《人工智能法案》的谈判立场,下一步将开始与各欧盟国家就该法律的最终形式进行谈判。可见,国际上人工智能的监管立法已经开展得如火如荼,突出了我国提升人工智能治理能力的紧迫性。
01 两党人工智能立法框架的五大支柱
参议员布鲁门撒尔和霍利提出的这一项两党人工智能立法框架,其总体目标是为了规范美国的人工智能系统的开发和部署,特别是那些对社会有高风险或重大影响的系统。该框架包括五个重要支柱:建立一个由独立监督机构管理的许可制度;确保主体对人工智能系统造成的伤害承担法律责任;捍卫国家安全和国际竞争;促进透明度;保护消费者。具体而言,五大支柱的政策核心如下:
支柱一:许可证制度
框架要求建立由独立监督机构管理的许可制度。它将要求开发人工智能模型的公司在监督机构进行注册,且该机构有权审核寻求许可的模型开发公司。监督机构还将制定人工智能开发、部署的具体标准和指南,例如提出模型的公平性、内容的准确性、数据的安全性等等要求。
许可证本身实际上是针对大语言模型等人工智能模型设立的行业准入,代表了一种更为审慎的监管方针。但是一些美国国内的批评者认为许可证制度可能会扼杀技术创新,尤其是不利于创业公司和小型的人工智能研发实体,反之还可能进一步扩大大型科技公司在人工智能模型研发和应用中的垄断地位。此外,关于许可证的评定准则的公平性、审核与授予机构的专业性,以及吊销程序等详细规定还有待落实,以便找到鼓励创新与适度监管之间的平衡。
支柱二:问责制
框架要求国会免除《通信规范法》(Communications Decency Act)第230条在人工智能领域的适用,该法条旨在保护科技公司免受第三方发布内容的法律后果。若这监管原则最终落地,则意味着人工智能开发企业也要为其模型输出的内容承担相应的责任,例如一些涉及诽谤、欺诈、歧视或煽动暴力的内容。
框架中的这一原则将压缩人工智能模型及其产出内容的豁免空间,进一步凸显了美国在人工智能技术监管上的保守化倾向。若免除230条款对人工智能开发企业的保护,可能使得人工智能企业面临大量的诉讼和救济请求。与此同时,潜在的大规模诉讼风险可能会触动大型科技公司和人工智能初创企业的发展利益,进而引发对该项政策的反向游说和抵制。
支柱三:捍卫国家安全和国际竞争
为了捍卫国家安全,以及确保美国在人工智能国际竞争中的优势地位,框架呼吁政府利用出口管制、金融制裁和其他政策工具来限制先进人工智能技术的转让,尤其是要禁止向所谓“敌对国家”以及“严重侵犯人权的国家”提供模型、硬件和相关设备以及其他技术。
框架中的这一支柱可以说是两党共识的基础,其目的是捍卫美国在人工智能领域的利益和绝对安全。与此同时,这一原则本身已经体现出技术地缘政治博弈的底色,加之中美两国一系列本土大模型的诞生和发展,不断推动两国向着通用型人工智能竞赛的轨道发展,也使得中美两国的高科技竞争进入愈加焦灼的阶段。
支柱四:透明度要求
该框架呼吁公司提高人工智能模型和实践的透明度。这将包括披露用于创建人工智能模型的训练数据、模型的目的和预期用途、模型的局限性和风险,以及为减轻这些风险而采取的措施。该框架还呼吁企业对研究人员、监管机构或社会团体等第三方开放算法,以便对人工智能模型进行独立审计。
支柱五:保护消费者
该框架呼吁公司保护消费者和儿童免受人工智能的潜在危害。这包括在出于人工智能目的收集或使用数据之前获得用户的知情同意,为用户提供选择退出选项和数据删除权利,确保数据安全和隐私,以及防止人工智能模型的欺骗或操纵行为。该框架还呼吁监管人工智能的一些高风险应用,例如自主武器等等。
透明度与保护消费者这两大支柱是技术监管的核心,也是确保人工智能向善发展的必要措施。与今年6月由参议院多数党领袖民主党议员舒默(Chuck Schumer)提出的人工智能监管五大原则相比,该立法框架则更突出对技术本身的监管,也更为详细且易于落地。
02 美国会推进人工智能立法的国际影响
总体而言,该框架旨在解决强大的人工智能模型所带来的潜在危害和风险,强化联邦机构对人工智能技术研发和应用的监管。但美国国内立法的全球效应是显而易见的,尤其是在人工智能等美国具有显著优势的领域。具体来说,该框架对全球不同利益相关者的影响如下:
第一,加快与盟友之间围绕人工智能立法的制度趋同态势。该框架将促进在人工智能伦理标准制定方面的协调和统一,如算法公平性、透明度、可解释性等原则的跨国认可和采用。这将客观上推动美国及其盟友在人工智能领域的监管政策趋同,如针对深度伪造和生成内容的管制。此外,这种监管政策的趋同将加强在关键技术如芯片的出口管制方面的跨国合作,也将鼓励基于模型的数据跨境流通,减少由于不同标准和要求差异造成的传输壁垒。
第二,提高竞争对手在获取相关技术方面的壁垒。该框架将给中国等所谓“竞争对手”带来一定程度的压力和挑战,需要中国灵活调整发展策略,更多考虑技术研发投入和应用场景的拓展。此外,与人工智能相关的算力领域也将成为“小院高墙”政策的重点目标,中国的GPU、NPU、DPU等芯片的研发和制造将会面临更大的压力,关键技术和设备的获取也将进一步受阻。因此,中国人工智能企业的全球化进程可能会面临监管壁垒的阻碍。
第三,对全球技术生态而言要防止割裂和阵营化。该框架将推动规模化部署符合伦理和安全标准的人工智能系统,提升全球部署的规范性。同时,该框架也将促进不同国家和地区在人工智能系统互操作性和兼容性方面的协调。此外,它还将为不同国家提供人工智能治理和伦理规制的样本和借鉴,推动全球人工智能治理体系形成。当然,该框架也可能将意识形态、人权和价值观等因素融入治理规则之中,进而加剧全球技术生态的割裂,使得西方国家与非西方国家之间的治理理念更加难以融合。
第四,人工智能企业的研发与合规成本将有所上涨。根据该立法框架,企业将面临提高透明度与公开披露的要求以确保算法和模型的可解释性,由此其开发和部署的成本可能增加。而对于规模较小的创新企业而言,获得许可证以及公开算法和模型等程序可能提高其合规成本。因此,企业不得不加强伦理规划和风险评估,并将之纳入产品设计的最初环节。
第五,公众的隐私和知情权将得到保障。该框架将有助于保护公众隐私,降低算法歧视和伤害的风险。同时,算法透明度要求也将提高人机交互的透明度,让公众更了解其与人工智能交互的情况。而公众获得知情权后,也可以对企业和政府的人工智能应用进行监督。但过度监管也可能降低技术创新的效率,限制公众获得新技术应用的渠道。
作者:王天禅,上海国际问题研究院实习生
声明:本文来自上海国际问题研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。