2023年6月21日,参议院民主党领袖查克·舒默(Chuck Schumer)在战略与国际研究中心(CSIS)讨论了他针对国会和联邦政府监管生成式人工智能所提出的“安全创新框架”(SAFE Innovation Framework),并阐明两党在人工智能方面的前进道路,以保护、扩大和利用人工智能的潜力。本期内容来自总部位于华盛顿特区的跨党派的外交政策智库——战略与国际研究中心(CSIS)——节选了舒默对人工智能监管的提议。
播客基本信息
【主题】参议院民主党领袖查克·舒默在战略与国际研究中心(CSIS)提出的人工智能时代的“安全创新框架”(SAFE Innovation Framework)
【时间】2023.06.21
【主持人】汤姆·普利茨克(Thomas J. Pritzker),战略与国际研究中心主席;格雷戈里·C·艾伦(Gregory C. Allen),战略与国际研究中心战略技术项目的高级研究员
【发言人】查克·舒默(Chuck Schumer),参议院民主党领袖
【链接】
https://www.csis.org/analysis/sen-chuck-schumer-launches-safe-innovation-ai-age-csis
图源:战略与国际研究中心(CSIS)
文字记录
普利茨克:
欢迎来到战略与国际研究中心。感谢大家的到来。我是汤姆·普利茨克,战略与国际研究中心的主席。我们是一个两党的国家安全智库,这也是为什么参议员舒默(Chuck Schumer)选择在此发表这次演讲。能够介绍参议员舒默是我的荣幸。我不需要赘述参议员的简历,但我希望简单介绍一下我们的背景。
参议员舒默既是一个思考者,也是一个行动者,这使得他在大多数场合都是一位罕见的人物。而在这个人工智能的时代,这些特质可能至关重要。我们必须让创新驱动技术的创造和应用。我们的经济将会依赖于此。我们的经济增长和国家安全将取决于创新的活力和私营部门的状态。
今天我们在这里要谈论的是人工智能。如何应对人工智能带来的问题是美国面临的一大挑战和机遇。我们正处于一个关键时刻。参议员今天在这里要讨论的是他对人工智能的看法,这可能是我们在未来几十年中面临的最大挑战之一。
舒默:
非常感谢你,汤姆,给我这样一个热情的介绍。同时也感谢战略与国际研究中心。现在,朋友们,我们聚集在此,是因为世界正在经历一场革命,这不是一场关于武器或政治权力的革命,而是一场将改变人类的科学和理解的革命。由于计算能力的显著创新、我们半导体的速度、数据集的规模,以及在机器学习和神经网络等领域的进步,我们可以自信地说,人工智能的时代已经来临,而且它将长期存在。如果正确应用,人工智能有望改善地球上的生活。它将影响我们如何对抗疾病,如何解决饥饿,管理我们的生活,丰富我们的思维,以及如何确保和平。
但人工智能的发展也存在着潜在的危险——工作岗位的流失、错误信息的传播、新时代的武器制造,以及我们可能完全无法管理这项技术的风险。许多人想要忽视人工智能,因为它太复杂了。但是,我们不能像鸵鸟一样把头埋在沙子里。现在的问题是,国会和联邦政府在这场新的革命中应扮演什么角色?我们能够积极推动人工智能的发展吗?国会是否可以在最大化人工智能的利益的同时,保护美国人民和全人类免受其带来的新的风险?
我认为这些问题的答案是肯定的,必须是肯定的。因为如果政府不介入,谁会来填补它的位置?私营部门中的个人无法做到保护我们的国家。
即使许多开发者有良好的意图,但总会有流氓行为者、无良公司、外国对手会寻求超越我们。公司可能不愿意自行设置防护措施,尤其是在他们的竞争对手不会被强制这样做的情况下。
这就是我们今天在这里的原因。我相信国会必须加入人工智能革命。人工智能与国会以前处理过的任何事物都不同。它不像劳动力、医疗保健或国防那样,让国会有长期的历史经验可以借鉴。专家甚至不确定政策制定者应该问哪些问题。
所以,今天,我想概述一个关于如何推进人工智能的提议。
首先,国会需要一个行动框架。我们的框架应该是什么?我们应该关注人工智能中的哪些问题?以便在与超过一百名人工智能领域的开发者、执行官、科学家、研究人员、劳动力专家和倡导者进行了几个月的交谈后准备立法。
今天早上,我想分享我提出的行动框架。我称之为“人工智能政策的安全创新框架”(Safe Innovation Framework for AI Policy)。我之所以这么称呼,是因为创新必须是我们的指向标,也是因为美国是一直是现代世界最伟大技术的领导者。
但是,如果人们认为人工智能的创新并未被安全地使用,如果没有适当的防护措施,那么创新可能会受到阻碍,甚至完全停滞。所以,我们必须寻求的是安全的创新。
其次,国会也需要创造一个新的流程,以制定实施我们框架的正确政策。人工智能发展得如此迅速,几乎以指数速度变化,而且在这个问题上几乎没有立法历史,因此需要一个新的流程。传统的委员会听证会方法在其中发挥了必要的作用,但只依靠它们是不够的。
我们将需要创造者、创新者和领域专家的帮助。因此,今年晚些时候,我将邀请顶级人工智能专家来到国会,并召集一系列人工智能研讨会,以开发一种新的、独特的方式来制定人工智能立法。
我会再多谈一些关于这些论坛的内容,但是首先让我们回到框架问题。让我再说一遍:我们的框架必须始终关注我们的指向标,那就是创新。
美国本质上是一个创新者的国家。我们在2021年提交了超过59万份专利申请。此外,世界上市值最大的100家公司中,有60%是美国公司。在过去,是美国改变了汽车的运行方式,我们是首个分裂原子、登陆月球、建立互联网并创造出使人工智能成为可能的微芯片的国家。人工智能可能是我们迄今为止最惊人的创新,它可能引发新一轮的技术进步、科学发现和工业力量的增长。所以,我们必须制定一个鼓励而非阻碍人工智能新世界创新的计划。
这意味着需要提出一些非常重要的问题。一、开发人工智能的各实体之间合作与竞争的适当平衡标准是什么?二、必须进行多少联邦干预,包括在税收方面和支出方面?是否需要联邦干预以鼓励创新?还是我们应该让私营部门自行发展?三、私人人工智能系统和开放人工智能系统之间的适当平衡准则是什么?最后,我们如何确保创新和竞争对每个人都是开放的,而不仅仅是少数几个大型、强大的公司?政府必须在确保开放、自由和公平竞争中发挥作用。
简而言之,我们必须首先处理的问题是鼓励而不是抑制创新。但是,如果人们认为无法安全地进行创新,那么将会减缓人工智能的发展,并阻止我们前进。所以,我的“安全创新框架”呼吁进行安全、负责任的保护,并且,最后,提供解释——这是人工智能中最重要和最难处理的技术问题之一。
首先是安全问题。我们不知道2年后、50年后、100年后,人工智能在外国对手或者对金钱和政权感兴趣的国内反叛团体手中能做些什么。人工智能的危险可能极其严重。我们需要尽一切可能设置防护措施,确保这些团体不能将我们在人工智能方面的进步用于非法和恶意的目的。但我们也需要保护美国的劳动力,因为人工智能,特别是生成式人工智能,正在改变数千万人谋生的方式。
最大的风险来自那些生活依赖工资支持的人,他们可能会取代数百万的低收入工人,其中很多来自有色人种社区。卡车运输、制造业、能源生产可能接下来就会受影响。那些有大学教育和高级学位的人也会受到影响。人工智能将塑造并重塑知识经济,影响销售、营销、编程、软件开发、银行、法律等其他技术职业的工人。许多人认为这些工作会永远安全,但事实并非如此。
中产阶级的削弱,已经是美国最严重的问题之一,如果我们忽视它,不采取措施防止工作减少或收入分配不均,那么人工智能可能会使这个问题变得更糟。全球化就是一个很好的警示故事。许多人宣扬它是繁荣和增长的转折点。几十年后,虽然大多数人都认为,全球化增加了财富,但付出了数千万个工作岗位被外包的代价。尽管一些社区繁荣了起来,但其他地方却被掏空,直到今天仍然如此。
国会对于帮助需要应对这些变化的美国人的反应过于迟缓。当涉及到人工智能时,让我们不要重蹈覆辙。为了防止这种情况发生,我们需要所有人参与其中——工人、企业、教育者、研究人员。这将是一个巨大的挑战,我们所有人都必须成为解决方案的一部分。人工智能政策也必须推动责任制。
我们该如何保护创新者、内容创作者、音乐家、作家、艺术家的知识产权呢?他们的想法就是他们的生计。当有人使用另一个人或另一个公司的知识产权时,我们需要有责任制来确保他们得到应有的信誉和补偿。如果没有适当的防护措施来规定如何开发、审计、部署AI,并明确哪些做法应该是越界的,我们可能会生活在一个完全没有规则的环境中,这是没有人希望看到的。
我们也不希望AI在我们毫不知情的情况下破坏美国的基础。AI既不支持也不反对自由、公民权利和正义这些事业。如果我们不把这些价值观编程到算法中,它们可能被用来破坏我们的民主基础,特别是我们的选举过程。如果我们不为AI的合适使用设定规范,其他人将会设定。民主可能会进入一个急速衰退的时代。
还有一个更直接的问题。AI可能会使我们的选举结果出现偏见,甚至在明年就可能完全破坏我们的选举。我们可能很快就会生活在一个混杂着真实和虚假的世界中。聊天机器人现在可以大规模地被部署,用于针对数百万个个别选民进行政治说服。而一旦有害信息被发送到1亿个家庭,就很难再把他们引回正轨。
如果外国对手利用这项技术干预我们的选举,会发生什么?这不是关于推行一种观点,而是关于确保人们在没有外部干涉的情况下参与民主。这就是我们必须快速行动的原因之一。我们应该制定符合民主原则的防护措施,并鼓励全世界的国家使用它们。如果我们不采取措施确保AI保护我们国家的基础,我们就有可能威胁到我们的民主体制的生存。
最后,我们来谈谈可解释性,这可能是我们面临的最棘手、技术最复杂的问题,但也许是最重要的。可解释性关乎透明度。当你向AI系统提问,它给你一个答案,也许是你没预料到的答案,你想知道答案从哪里来。你应该能够问:为什么AI选择了这个答案,而不是其他也可能的答案?并且应该用简单的方式进行,这样所有用户都能理解这些系统是如何得出答案的。
国会应该将此作为首要任务,公司和专家必须在帮助我们解决这个非常重要的问题上起主导作用。因为没有可解释性,我们可能无法继续前进。如果用户无法确定AI生成的句子、段落或想法的来源,无法给出为什么是这一答案而不是其他可能性的一些解释,那么我们可能无法实现我们的其他目标,如责任、安全、基础。因此,可解释性可能是我们在AI上面临的最大挑战。
即使是专家也不总是知道这些算法为什么会产生他们所做的答案。这通常是一个黑盒子。没有任何日常用户会理解决定AI系统对问题或任务的反应的复杂且不断演进的算法。
当然,这些算法代表了AI开发者最高级别的知识产权。强迫公司揭示他们的知识产权将是有害的。这将扼杀创新,使我们的对手能够将其用于恶意目的。
但幸运的是,普通人不需要了解这些算法的内部工作方式。但我们需要,我们需要要求公司开发一个系统,在简单易懂的语言中,让用户理解系统为什么产生特定的答案,以及这个答案从哪里来。
这是非常复杂但非常重要的工作。在这里,我们需要专家和公司的独创性来找到一个公平的解决方案。首先要创新,但要有安全性、责任性、基础性和可解释性。我相信这些原则将确保AI创新是安全、负责任的,并且有适当的防护措施。如果我们牢记这些优先事项,我认为国会可以帮助确保AI为人类的利益服务。我认为我们可以朝着确保人们安全的方向迈出很大一步。
艾伦:
参议员,非常感谢您今天能来到战略与国际研究中心,并与我们分享新的“安全创新框架”。您在演讲中提到的一个重点是市场和其他地方的竞争的重要性。那么,您如何看待AI行业内的这个竞争问题,以及如何确保这项技术不只是被少数几家公司所垄断呢?
舒默:
这就是关于平衡的问题。一方面,我们希望有创新。如果某些公司,无论规模大小,都有这种创新能力,我们并不想抑制它们。但另一方面,我们希望确保许多其他人也有机会参与进来。这是我们面临的一项重大问题。其中一部分关系到OpenAI。然而,即使没有OpenAI,我们也需要确定这类指导原则。但我们当然不希望出现两三家公司占据主导地位,其他所有人都被排挤在外的情况。
本文内容翻译整理自网络,如有侵权请联系删除。
翻译:吴承烨
审校:孙靖涵
编辑:尹炫
责编:邹明蓁
声明:本文来自海国图智研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。