2023年10月,美国战略与国际研究中心(CSIS)发布题为《AI监管将至,路在何方?》(AI regulation is coming, what is the likely outcome?)的报告。该报告介绍了当下AI监管现状,对美国自上而下的“拼凑式”AI监管手段进行了深入的分析,展现了当下AI监管论战的核心和相关各方对此议题的看法与观点;此外,本报告定义了AI监管十大关键要素,并根据美国的AI监管现状对其未来AI监管走势进行了预测。
摘译 | 许艺凡/赛博研究院实习研究员
来源 | CSIS
01
AI监管现状回顾
多个国家及国际组织已出台AI监管相关举措,其中的代表性例子为欧盟《人工智能法案》,该法案提供了大量自上而下式监管规则;中国国家网信办等部门联合发布的《生成式人工智能服务管理暂行办法》则提出对生成式AI服务实行包容审慎及分类分级监管措施。而本报告发现,美国采取的则是分散式AI监管措施,即各行政部门自上而下进行分散式管理。
与欧洲不同的是,美国不太可能在未来几年内推出一部全面的AI法案,但这并不意味着美国在这一领域将无法可依。美国极有可能会对特定部门采取管理措施,如医疗、金融、房产、儿童安全保障等;除此以外,美国也可能出台多项行政命令,如果方法得当,那么这些规则将会有特定部门的专业知识作为根基,更加符合AI管理创新的要求。
本报告指出,美国政府很可能会增加AI研发投入,尤其是在国防安全领域及智能领域,并利用其较强的购买力来发展AI市场。然而,本报告认为美国将会与欧洲在AI贸易方面产生摩擦、美国联邦贸易委员会及司法部门可能会发出警告以防止大型科技公司集中使用AI技术。
02
AI监管论战:三种不同的声音
本报告指出了当下关于AI监管日趋激烈的论战,这场论战折射出世界各国相关人士在对AI技术寄予厚望的同时,亦对其抱有较深的恐惧心理。
本报告指出,人们对AI技术怀有伦理恐惧与偏执心理。AI领域内的计算机科学家们向人们发出警告称,生成式AI存在威胁人类生存的巨大风险,包括比尔盖茨、谷歌、微软、OpenAI的高管人员以及中国、俄罗斯的AI领域专家在内的行业人士联合签署了一份声明,呼吁缓解这种威胁给人们造成的恐慌,同时,领域内也出现了呼吁暂停开发比ChatGPT 4更为先进的AI模型。
然而,AI领域内仍然有对AI技术发展持乐观态度的人士。风险投资家安德森认为,AI具有拯救世界的力量;不少行业人士则批判科技公司正在广泛地贩卖焦虑、推动AI监管进程以此来维护自身的经济利益,他们指出,不应对AI技术产生任何担忧,同时也应允许公司及开放源代码尽己所能快速高效地构建AI。
除了上述两种观点以外,还有许多企业以及民间社会组织提倡对AI实行不同程度的监督。例如,微软公司提出,可以构建全新的政府AI机构,并搭建起一个新的AI法律框架,要求控制关键基础设施的AI系统必须进行安全制动,并专门为负责运行关键AI技术的数据中心颁发许可证。
03
AI监管十大关键要素
为了协助监管者更加高效地应对AI监管问题,本报告定义了关于AI监管的十大关键要素。
要素一:AI监管的首要目标,是保证监管措施的透明度、公正性、可解释性、安全性及信任度。这五大要素决定着监管者能否成功实现对AI的有效监管。AI监管过程中衍生出的许多具体的问题,如披露模型特点与模型偏差、告知用户应用风险以及进行独立模型安全性测试,都需要有这些要素作为有力支撑;
要素二:基于风险程度的监管方法。AI监管的难度随着其普及程度的提高而增加。许多专业人士提出可以采用基于风险程度的监管措施,即对可能造成更大损害的高风险AI技术加强监管力度,对低风险AI技术则相应地降低监管力度。然而,本报告指出此种办法在实践过程中会遇到不少阻碍,例如由谁来定义及衡量风险程度、如何定义及风险等问题;
要素三:降低风险并更好地应对恶意行为。AI监管规则需要反映出遵守规则的合法企业与企图实施恶意行为的个人或群体之间的区别。对于将实现危险的目标作为追求(如盗窃、妨害人身安全、损害儿童安全等)的恶意行为(网络攻击、网络犯罪等)需要制定更加强有力且更具威慑性的规则与惩罚机制;
要素四:创新及预先批准。欧盟、微软公司及OpenAI的监管方法要求政府对高风险领域的AI模型进行预先审批或授权。在AI技术飞速发展的背景下,这一点变得十分重要。互联网之所以能够快速进行创新,在一定程度上是因为没有进行预先审批,从而让任何个人或群体都可以在不经许可的情况下在网络上发布合法应用。人们都希望能够实现创新,但预先批准机制有可能会制造市场准入壁垒,从而对创新及开放竞争造成不利影响;
要素五:数据流、数据隐私及数据安全。AI对于高质量数据的依赖性极高,模型的准确性及结果直接反映出了训练数据,因此,数据监管可谓是AI监管的核心。AI可能会放大数据隐私相关问题,数据流及数据安全也都与AI监管相关,这些之前就已经存在的问题需要相关措施来协助解决;
要素六:新法律是否出台。许多的AI技术风险都可以通过已有机构进行处理。例如,美国联邦贸易委员会有权监管AI深度伪造等虚假行为;平等就业促进机构也正在积极应对AI模型在招聘职员的过程中可能存在着的偏见问题。然而,本报告指出,当下现有法律与AI在适配方面依然存在着诸多问题,因此,部分公司,例如微软,已经提出了“根据AI技术架构构建更为广泛的法律及监管机制”。当然,也有不少人反对此举,认为现有的法律法规已经能够帮助实现对AI的有效监管;
要素七:机构措施。本报告指出,人们有必要去思考AI所带来的挑战的独特性,以及设立专门的AI监管机构的必要性。关于这一问题,微软等公司建议设立全新的政府AI机构,解决“高性能AI基础模型”等问题,这种举措可以带来更多的资源及专业知识。不过,该举措也存在着一定的缺陷,因为新的AI机构可能会带来监管方面的“博弈”、决策低效、官僚主义等一系列问题,需要专业人士对此进行进一步的研判;
要素八:“胡萝卜”+“大棒”。“胡萝卜”指的是激励措施,而“大棒”则指的是惩罚措施,奖惩并举时,AI监管效果才能够达到最佳。例如,谷歌公司注重AI成果,训练员工以帮助他们更好地掌握AI,同时还大力投资AI创新;欧盟则通过推行《人工智能法案》采取强有力的惩罚机制,其中包括严厉的经济惩罚措施;
要素九:监管范围。人们希望AI技术在高风险用途方面不仅能够适用于模型开发者,且能够适用于应用程序及其运行的信息技术基础设施。例如,只将用于支撑关键基础设施的AI技术部署于获得认证许可的AI数据中心,这一举措在未来可能会扩大AI监管领域。
要素十:国际协调机制。不同的国家在AI监管规则方面难免会出现冲突,例如,欧盟《人工智能法案》中的举措相较于美国的监管举措更加科学高效。因此,如何更好地协调各国AI监管,仍需要各国共同努力。
04
美国未来AI监管道路
对于美国未来AI监管情况,本报告作出了以下推断:
1、在未来几年内,美国推行类似于欧盟《人工智能法案》的法律法规的可能性很低。报告认为,美国可能会更多地在AI权利法案上继续努力;
2、私营科技企业会推动AI计划,为客户提供更高质量的服务。这种举措也可以帮助企业避免政府所采取的严厉管制措施;
3、联邦政府对AI及AI研究方面的投入将不断扩大。此种投入同时也包括对非营利组织及高校的相关投入,以此来提升国家科技及经济竞争力;
4、联邦政府将会制定并推行限制联邦机构中可能会滋生AI偏见及风险的行政命令。这种举措可以为公民提供更加完善的服务,并增强AI的安全性;
5、联邦政府将不断加强AI风险管理、标准、审计与评估;
6、美国各州及各市可能会采取有针对性的行动。例如,加利福尼亚州可能会通过一项AI法案,以此推动美国AI监管环境的改变,但本报告认为,此种可能性较低;
7、全球监管环境可能会因国家之间的贸易摩擦而出现危机;
8、反垄断机构会推动防止“大科技”公司主导的AI虚假行为及基于AI的欺诈行为;
9、AI可能将在军事、智能等领域得到应用;
10、科技竞争可能会使美国对于先进图形处理器等AI技术的出口及对相关投资的管制逐步扩大和延伸。
声明:本文来自赛博研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。