人工智能安全危机的临界点似乎正加速到来。本周二OpenAI和Google DeepMind员工联名发表公开信,呼吁重视人工智能技术带来的严重风险,包括导致人类灭绝的风险。

公开信还呼吁AI巨头不对“吹哨”员工进行报复(根据OpenAI的保密协议,离职员工如果批评公司将失去既得股权)。签署公开信的员工警告说,人工智能已经带来了严重风险,包括“进一步加剧现有的不平等,操纵和误导信息,以及失去对自主人工智能系统的控制,可能导致人类灭绝”。

这封公开信激起了全球对“轻安全,重发展”的人工智能技术爆发安全危机的普遍担忧。

业界大咖集体发出警告

在OpenAI和谷歌员工发表联名公开信之前,已经有多位人工智能领军人物联名撰文警告人工智能安全存在严重安全隐患,呼吁管理人工智能极端风险。

近日,来自美国、中国、英国、加拿大和以色列的,包括图灵奖获得者在内的20多位重量级教授及学者在《科学》期刊联名撰文《在快速进步中管理人工智能极端风险》,直指人工智能领域重发展轻安全的现状,呼吁立即调整方向,有效监管,远离灾难。

这份文章的作者包括人工智能“教父”杰弗里·辛顿(Geoffrey Hinton)、图灵奖得主约书亚·本吉奥(Yoshua Bengio)、姚期智(Andrew Yao)、素有“计算机安全教母“之称的宋晓东(Dawn Song)和《人类简史》三部曲作者尤瓦尔·赫拉利(Yuval Harari)等。

学者们在文章中指出:

人工智能正在黑客攻击、社会操纵和战略规划等关键领域取得进展,并可能很快带来前所未有的控制挑战。一旦自主人工智能系统开始追求人类不想要的目标,人类可能无法控制。

文章警告称:“需要警惕的是,与人类相似,高级人工智能系统可能会在(人类对其的)评估中‘撒谎’,故意表现不同,假装与人类期望一致,因此这种AI行为评估可能无法奏效。”

值得注意的是,包括Yoshua Bengio、Geoffrey Hinton和Stuart J. Russell在内的知名AI专家还支持OpenAI和谷歌“吹哨”员工的公开信观点(人工智能对人类生存构成威胁)。然而,也有一些专家,如Meta的杨立昆(Yann LeCun),对AI构成人类生存风险的说法持异议,认为“AI接管”论分散了对当前AI危害(如偏见和危险幻觉)的关注。

人工智能安全监管雷声大雨点小

澳大利亚ABC中文网近日发表题为“我们是否站在人工智能安全监管的关键节点?”的文章,认为当前各国的人工智能安全监管“雷声大,雨点小”。

报道指出,人工智能全球生成式人工智能投资正呈井喷式激增。2023年,生成式人工智能的资金比2022年增长了近八倍,达到252亿美元。

根据斯坦福大学《2024人工智能指数报告》,美国的人工智能模型摇摇领先于中国、欧盟和英国。2023年,全球有61个著名的人工智能模型来自美国的机构,远远超过欧盟的21个和中国的15个。

但人工智能安全研究则严重滞后,只有大约1%到3%的人工智能出版物与安全有关。

新加坡国立大学教育创新副校长、新加坡国家人工智能核心项目人工智能管理高级总监、《我们,机器人?人工智能监管及其法律局限》一书作者陈西文教授(Simon Chesterman)认为,当前正值监管人工智能的黄金时代,但各方言行却背道而驰。

报告显示,各国开始重视对人工智能的监管。法律中包含人工智能一词的国家数量大幅增加,从2022年的25个国家增加到2023年的127个国家。

但是,由于各国政府出台的人工智能法规在人工智能潜在收益和风险监管之间摇摆权衡,导致全球对人工智能的安全监管可谓雷声大、雨点小。

欧盟、美国与中国的监管博弈

在两周前举行的首尔峰会上,人工智能安全问题再次成为焦点。其中,处于人工智能发展最前沿的美国、欧盟和中国对人工智能安全监管的态度尤为值得关注。

欧盟正致力于成为全球人工智能监管的领跑者和规则制定者。本月,全球首部人工智能全面监管法规——欧盟的《人工智能法》将正式生效。

根据欧盟网站介绍,这部《人工智能法》将人工智能的应用划分为三大风险类别:

  • 首先,造成不可接受风险的应用和系统将被禁止,例如由政府管理的社会评分类型。

  • 其次,高风险应用,如对求职者进行排名的简历扫描工具,须遵守特定的法律要求。

  • 最后,未被明确禁止或列为高风险的应用程序基本上不受监管。

欧盟的《人工智能法》采用的是金字塔式风险监管,对高风险人工智能系统实施全生命周期风险管控,被广泛视为迄今为止最严厉的人工智能监管法案。

与欧盟相比,美国也颁布了多项人工智能法案,例如《2020年国家人工智能倡议法案》、2023年《人工智能权利法案蓝图》和两个指导国会未来立法的政策框架。斯坦福大学报告称,2016年至2022年间,美国14个州通过了与人工智能相关的立法,其中马里兰州居首,通过了七项法案,加利福尼亚州随后,通过了六项法案。

斯坦福大学报告指出,美国的法案更多强调人工智能的权利和机遇,鼓励人工智能技术创新发展,采取的是审慎监管原则和联邦与州双线监管问责机制,出台的法案不具约束性。

“美国采取的是一种市场方法,立法很少,不过随着风险变得越来越大,这种情况可能会发生变化,”新加坡国立大学副校长陈西文教授说。

在欧盟发布《人工智能法》之前,中国被广泛看作是人工智能监管的领跑者,在ChatGPT问世仅仅数月内就颁布了生成式人工智能的法律法规。

事实上,早在2021年,中国就发布了《新一代人工智能伦理规范》将伦理道德融入人工智能全生命周期进行监管。之后,中国又陆续发布了《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》和《生成式人工智能服务管理暂行办法》,从算法、深度伪造、生成式人工智能等方面对相关技术的开发和发布者提出监管要求。

澳大利亚广播公司ABC指出,在全球主要经济体中,中国政府对人工智能技术(风险)的反应表现最为敏捷迅速,因此目前全球普遍观望,中国是否会效仿欧盟出台全面的《人工智能法》?

墨尔本大学的帕特森教授指出:“欧盟、美国、英国和中国采用不同监管模式来应对人工智能风险。欧盟的《人工智能法》干预力度最大,以法律监管体系为基础,涵盖全面的隐私保护和人权保护,欧盟还制定了《数字服务和数字平台法》,对大型数字平台进行特别监管,这使其与干预较少的美国截然不同”。

原文链接:澳大利亚广播公司ABC中文

https://www.abc.net.au/chinese/2024-06-05/ai-safety-regulation-eu-act-us-china-seoul-summit-concerns/103926850

声明:本文来自GoUpSec,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。