导读:人工智能是人类发展的新领域。当前,以大模型为代表的全球人工智能技术正在快速发展,对经济社会发展和人类文明进步产生深远影响,给世界的发展带来了巨大机遇。与此同时,人工智能技术也带来难以预知的各种风险和复杂挑战,特别是这一技术在军事领域的应用带来了很多安全问题,尤其近年来人工智能越来越多应用到俄乌冲突、巴以冲突等军事场景中,其安全问题越来越受到世界的关注。人工智能安全治理攸关全人类命运,是世界各国面临的共同课题。近期,中美欧都相继发布了人工智能安全治理领域的重要政策文件或倡议,人工智能领域的全球安全治理正在加速演进,值得高度关注。现将最新动态梳理总结如下,以飨读者。
一、中国发布全球人工智能治理倡议
中国高度关注人工智能的安全治理。2023年2月发布的全球安全倡议概念文件,专门强调要加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险。中国已就人工智能军事应用和伦理治理发布立场文件,愿与国际社会就人工智能安全治理加强沟通交流,推动达成普遍参与的国际机制,形成具有广泛共识的治理框架和标准规范。同时,还强调,围绕应对人工智能新兴科技等领域所谓安全挑战,搭建更多国际交流合作平台和机制,共同提升非传统安全治理能力。
2023年10月18日,习近平主席在第三届“一带一路”国际合作高峰论坛开幕式主旨演讲中宣布中方提出《全球人工智能治理倡议》,围绕人工智能发展、安全、治理三方面系统阐述了人工智能治理中国方案,展现了中国负责任大国担当。《倡议》坚持以人为本、智能向善,引导人工智能朝着有利于人类文明进步的方向发展;坚持相互尊重、平等互利,反对以意识形态划线或构建排他性集团,恶意阻挠他国人工智能发展;主张建立人工智能风险等级测试评估体系,不断提升人工智能技术的安全性、可靠性、可控性、公平性;支持在充分尊重各国政策和实践基础上,形成具有广泛共识的全球人工智能治理框架和标准规范,支持在联合国框架下讨论成立国际人工智能治理机构;加强面向发展中国家的国际合作与援助,弥合智能鸿沟和治理差距等。
倡议特别强调,发展人工智能应坚持“智能向善”的宗旨,遵守适用的国际法,符合和平、发展、公平、正义、民主、自由的全人类共同价值,共同防范和打击恐怖主义、极端势力和跨国有组织犯罪集团对人工智能技术的恶用滥用。各国尤其是大国对在军事领域研发和使用人工智能技术应该采取慎重负责的态度。推动建立风险等级测试评估体系,实施敏捷治理,分类分级管理,快速有效响应。研发主体不断提高人工智能可解释性和可预测性,提升数据真实性和准确性,确保人工智能始终处于人类控制之下,打造可审核、可监督、可追溯、可信赖的人工智能技术。增强发展中国家在人工智能全球治理中的代表性和发言权,确保各国人工智能发展与治理的权利平等、机会平等、规则平等,开展面向发展中国家的国际合作与援助,不断弥合智能鸿沟和治理能力差距。积极支持在联合国框架下讨论成立国际人工智能治理机构,协调国际人工智能发展、安全与治理重大问题。应当看到,《倡议》的提出是中方积极践行人类命运共同体理念,落实全球发展倡议、全球安全倡议、全球文明倡议的具体行动,有利于推动人工智能的全球安全治理,共同应对人工智能带来的安全挑战。
此外,2023年10月29日至30日,由中国军事科学学会和中国国际战略学会主办的北京香山论坛将人工智能安全作为重要专题进行平行分组研讨。
二、美国政府签署人工智能安全行政命令
种基于梯度的对抗样本生成方法。FGSM 的基本思路是在原始输入样本的基础上计算损失函数对输入样本的梯度,然后将梯度符号作为扰动方向,并将梯度的绝对值作为扰动大小,向着使分类结果最差的方向添加扰动,从而得到对抗样本,使得模型对该样本的分类结果发生错误。对抗样本生成过程如图 1 所示,第 1 行原始图像加上第 2 行扰动,得到第 3 行的对抗样本。设 x 为原始输入样本,θ 表示模型参数,y 表示输入样本真实标签,J(θ,x,y) 表示损失函数,sign 是符号函数,ε 表示扰动的大小。对抗样本图片 生成公式:
2023年10月30日,美国总统拜登签署了一项《关于安全、可靠、值得信赖地开发和使用人工智能的行政命令》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence),以确保美国在把握人工智能的前景和管理人工智能风险方面处于领先地位。该行政命令为人工智能安全和保障建立了新的标准,保护美国人的隐私,促进公平和公民权利,维护消费者和工人的利益,促进创新和竞争,促进美国在世界各地的领导地位等。这一行政令被外界称为“有史以来政府为推进人工智能安全领域所采取的最重大行动”。
具体而言,该行政命令指示采取以下行动:
(一)人工智能安全和安保新标准
行政命令要求人工智能系统的开发者与美国政府分享其安全测试结果和其他关键信息。根据《国防生产法》,该命令要求开发任何对国家安全、国家经济安全或国家公共卫生和安全构成严重风险的基础模型的公司在培训模型时必须通知联邦政府,并且必须分享安全测试的结果。这些措施将确保人工智能系统在公司公开之前是安全、可靠和值得信赖的。
制定标准、工具和测试,以帮助确保人工智能系统的安全、可靠和值得信赖。国家标准技术研究院将制定严格的标准,进行广泛的测试,以确保公开发布前的安全性。国土安全部将把这些标准应用于关键基础设施部门,并成立人工智能安全委员会(AI Safety and Security Board)。能源部和国土安全部还将解决人工智能系统对关键基础设施的威胁,以及化学、生物、辐射、核和网络安全风险。总之,这些都是任何政府为推进人工智能安全领域所采取的最重要的行动。
通过制定强有力的生物合成筛选新标准,防范利用人工智能设计危险生物材料的风险。资助生命科学项目的机构将建立这些标准,作为联邦资助的条件,创造强有力的激励措施,以确保适当的筛选和管理可能因人工智能而变得更糟的风险。
通过建立检测人工智能生成内容和认证官方内容的标准和最佳实践,保护美国人免受人工智能带来的欺诈和欺骗。美国商务部将制定内容认证和水印指南,以清晰地标记人工智能生成的内容。联邦机构将使用这些工具,使美国人更容易知道他们从政府那里收到的信息是真实的,并为世界各地的私营部门和政府树立榜样。
建立一个先进的网络安全计划,开发人工智能工具,以发现和修复关键软件中的漏洞,使软件和网络更加安全。行政令还要求制定国家安全备忘录,指导人工智能和安全方面的进一步行动,由国家安全委员会和白宫办公厅主任制定。该文件将确保美国军方和情报界在其任务中安全、道德和有效地使用人工智能,并将指导行动以对抗对手对人工智能的军事使用。
(二)保护美国人的隐私
这份行政命令认为如果没有保护措施,人工智能可能会进一步危及美国人的隐私。人工智能不仅使提取、识别和利用个人数据变得更容易,而且还增强了这样做的动机,因为公司使用数据来训练人工智能系统。为了更好地保护美国人的隐私,包括免受人工智能带来的风险,总统呼吁国会通过两党数据隐私立法,以保护所有美国人,特别是儿童,并指示采取以下行动:
① 通过优先考虑联邦支持加速隐私保护技术的开发和使用来保护美国人的隐私,包括使用尖端人工智能的技术,以及让人工智能系统在训练时保护训练数据的隐私。
② 通过资助一个研究协调网络,加强保护隐私的研究和技术,例如保护个人隐私的加密工具,以推动快速突破和发展。美国国家科学基金会也将与该网络合作,促进联邦机构采用先进的隐私保护技术。
③ 评估各机构如何收集和使用商业上可用的信息——包括他们从数据经纪人那里获得的信息——并加强联邦机构的隐私指导,以考虑人工智能风险。这项工作将特别侧重于包含个人身份数据的商业可用信息。
④ 为联邦机构制定指导方针,以评估隐私保护技术的有效性,包括人工智能系统中使用的技术。这些指导方针将促进机构保护美国人数据的努力。
(三)促进公平和美国公民权利
拜登政府认为,不负责任地使用人工智能会导致并加深司法、医疗和住房领域的歧视、偏见和其他滥用行为。拜登政府已经采取行动,发布了《人工智能权利法案蓝图》,并发布了一项行政命令,指示各机构打击算法歧视,同时执行现有权力,保护人民的权利和安全。为了确保人工智能促进公平和公民权利,拜登政府指示采取以下额外行动:
① 为联邦福利计划和联邦承包商提供明确的指导,以防止人工智能算法被用来加剧歧视。
② 通过培训、技术援助和司法部与联邦民权办公室就调查和起诉与人工智能有关的侵犯民权行为的最佳做法进行协调,解决算法歧视问题。
③ 通过制定在量刑、假释和缓刑、审前释放和拘留、风险评估、监视、犯罪预测和预测性警务以及法医分析方面使用人工智能的最佳做法,确保整个刑事司法系统的公平性。
(四)促进创新和竞争
美国已经在人工智能创新方面处于领先地位——去年在美国获得首次融资的人工智能初创公司比紧随其后的七个国家加起来还要多。拜登政府的行政命令要求通过以下行动继续引领人工智能领域的创新和竞争:
① 通过国家人工智能研究资源试点促进美国各地的人工智能研究——该工具将为人工智能研究人员和学生提供关键的人工智能资源和数据——并扩大对医疗保健和气候变化等重要领域的人工智能研究的资助。
② 通过为小型开发商和企业家提供技术援助和资源,帮助小型企业将人工智能突破商业化,并鼓励联邦贸易委员会行使其权力,促进公平、开放和竞争的人工智能生态系统。
③ 利用现有权力,通过现代化和简化签证标准、面谈和审查,扩大在关键领域具有专业知识的高技能移民和非移民在美国学习、居留和工作的能力。
(五)推进美国在海外的领导地位
人工智能的挑战和机遇都是全球性的。拜登政府将继续与其他国家合作,支持在全球范围内安全、可靠地部署和使用人工智能。为此,美国政府将采取下列行动:
① 扩大双边、多边和多方利益攸关方在人工智能领域的合作。美国国务院将与商务部合作,牵头建立强有力的国际框架,以利用人工智能的优势,管理其风险并确保安全。
② 与国际合作伙伴和标准组织加快制定和实施重要的人工智能标准,确保技术安全、可靠、值得信赖和可互操作。
③ 促进安全、负责任和保障权利的人工智能在国外的发展和部署,以解决全球挑战,如促进可持续发展和减轻关键基础设施的危险。
(六)确保政府负责和有效地使用人工智能
人工智能可以帮助政府更好地服务美国人民。它可以扩大机构监管、管理和支付福利的能力,还可以削减成本并增强政府系统的安全性。然而,人工智能的使用也会带来风险,比如歧视和不安全的决策。为确保负责任的政府部署人工智能并使联邦人工智能基础设施现代化,拜登政府指示采取以下行动:
① 为各机构使用人工智能发布指导,包括明确保护权利和安全的标准,改进人工智能采购,加强人工智能部署。
② 通过更快速、更高效的合同,帮助机构更快、更便宜、更有效地获得特定的人工智能产品和服务。
③ 加快人工智能专业人员的快速招聘,作为由人事管理办公室、美国数字服务、美国数字军团和总统创新奖学金牵头的全政府人工智能人才激增的一部分。各机构将为相关领域的各级员工提供人工智能培训。
三、英国召开全球首届人工智能安全峰会
2023年11月1日,首届全球人工智能安全峰会(AI Safety Summit)在英国布莱奇利园召开。美国、英国、欧盟、中国、印度等多方代表就人工智能技术快速发展带来的风险与机遇展开讨论。在此次峰会中,英国艾伦·图灵研究所、中国科学院、经济合作与发展组织等众多机构,英国“深层思维”公司、美国谷歌公司、中国腾讯公司、阿里巴巴公司等知名企业,以及扬·莱坎(中文名杨立昆)、约舒亚·本吉奥、杰弗里·欣顿等人工智能领域知名专家出席,重点关注人工智能技术可能带来的风险,同时讨论该技术带来的变革性机遇。
▲ 英国布莱奇利首届人工智能安全峰会现场
英国政府认为,生成式人工智能最近取得了快速进展,预计未来几年将继续取得进展。这可能会导致这些人工智能大模型以更快的速度进化,乃至超出人类理解甚至人类控制的危险。有鉴于此,英国首相苏纳克(Rishi Sunak)在10月26日公开表示希望成立一个全球人工智能安全研究机构来检查、评估和测试新型人工智能,以便于更精准地预测人工智能可能会带来的风险和产生的后果。英国将寻求与国际合作伙伴、政策制定者、私营公司、学术界和民间社会分享信息,作为人工智能安全研究合作努力的一部分。苏纳克希望英国成为人工智能安全发展领域的全球领导者。
▲ 在全球人工智能安全峰会上的英国首相苏纳克
调查结果显示,国际社会赞成政府支持的人工智能安全研究所来评估强大的人工智能,以测试这一技术是否安全,62%的英国受访者支持这一想法。对包括加拿大、法国、日本、英国和美国在内的9个国家的国际公众对人工智能安全的民意调查显示,大多数国家都强烈支持由独立专家对强大的人工智能进行测试。所有国家的大多数受访者都同意这一点,从日本的59%到英国和新加坡的76%。当被问及他们信任谁来全面负责确保人工智能的安全时,在接受调查的9个国家中,有7个国家的人工智能安全研究所是最受欢迎的选择,而且往往有一定距离。
值得注意的是,来自中国、印度、美国和欧盟等28个国家和地区的代表在此次峰会上还签署通过了全球首个人工智能协议《布莱切利人工智能安全宣言》(Bletchley Declaration on AI Safety),旨在解决前沿人工智能模型可能会面临的失控和滥用的风险。宣言指出,人工智能带来了巨大的全球机遇:它有可能改变和增进人类福祉、和平与繁荣,特别是在公共服务,如卫生和教育、粮食安全、科学、清洁能源、生物多样性和气候等领域,并加倍努力实现联合国可持续发展目标等方面。在带来这些机遇的同时,人工智能也带来了重大风险,表现在影响人权、透明度和可解释性、公平、问责、监管、安全、适当的人类监督、道德、减少偏见、隐私和数据保护等问题。特别是,篡改内容或生成欺骗性内容的能力可能会带来不可预见的风险,人工智能在网络和生物安全领域的应用所带来的挑战也尤为突出。为了更好地运用人工智能和规避其风险,为了所有人的利益,应以安全的方式设计、开发、部署和使用人工智能,做到以人为本、值得信赖和负责任,确保人工智能的安全,并通过现有的国际论坛和其他相关倡议支持所有人的利益,促进合作。
在此过程中,虽然必须在整个人工智能生命周期考虑安全问题,但开发前沿人工智能能力的参与者,特别针对于那些异常强大且可能有害的人工智能系统,对确保这些人工智能系统的安全负有特别重大的责任,包括通过安全测试系统、通过评估以及通过其他适当措。宣言鼓励所有相关主体就衡量、监测和减轻潜在有害能力及可能出现的相关影响的计划提供与具体情况相适应的透明度和问责制,特别是防止滥用和控制问题,以及其他风险的扩大。
倡议呼吁,国际社会应对人工智能前沿风险的议程将侧重于以下几个方面:
一是确定共同关注的人工智能安全风险,建立对这些风险的科学和循证的共识,并能够伴随着能力的不断增强,在更广泛的全球范围内保持共识,以了解人工智能对社会的影响。
二是各国制定各自的基于风险的政策,以有效应对此类风险,并酌情开展国际合作,同时认识到做法可能因国情和适用的法律框架而有所差异。这包括,除了提高开发人工智能前沿能力的私人行为主体的透明度外,还包括适当的评估指标、安全测试工具,以及发展相关的公共部门能力和科学研究。
三是为推进这一议程,国际社会需要共同建立一个具有国际包容性的人工智能前沿安全科学研究网络,该网络应包括并补充现有的和新的多边和双边合作,包括通过现有的国际论坛和其他相关倡议,以促进提供最佳的科学支持,用于政策制定和公益事业。
在此次峰会上,中国科技部副部长吴朝晖在开幕式上发表讲话,呼吁全球合作分享人工智能技术,让人工智能向公众开放。“一带一路”合作框架下,中国已将数字经济作为与共建国家的重要合作内容,其中就包括与各国在人工智能领域加强合作。美国副总统哈马斯则高调表示,美国是人工智能领域的全球领导者,拜登的行政命令应该成为国际典范。美国商务部长雷蒙多则利用此次峰会宣布美国将成立一个人工智能安全研究所,该研究所据称将作为一个中立的第三方来制定人工智能安全标准。相较之下,欧盟国家则更多关注数据隐私问题,希望在这方面对人工智能加强监管。8月25日,欧盟一项新的数字隐私保护法《数字服务法》(DSA)正式生效,旨在保护个人用户的隐私问题,防止有害内容和虚假信息的进一步传播。10月24日,欧盟就新人工智能法案中的关键部分达成一致,该法案预计于12月份公布。
四、结 语
正如《布莱奇利宣言》指出的那样,人工智能的许多风险本质上是国际性的,因此“最好通过国际合作来解决”。人工智能作为当今科技领域的热门话题,其发展速度之快、应用范围之广、影响力度之大,引发了国际社会的广泛关注。由于人工智能技术的复杂性和跨学科性,单靠一个国家或一个组织的力量很难全面应对其安全风险。因此,为了更好地应对人工智能带来的前沿风险,各国政府、企业、学术界和相关国际组织需要加强合作,共同研究和分析人工智能的安全风险,并采取有效的措施来降低这些风险。各国政府需要加强对人工智能技术的监管,确保其符合道德和法律标准。同时,国际组织和跨国企业可以加强合作,共同制定人工智能安全治理的国际标准和规范,促进人工智能技术的安全和可持续发展。只有加强合作、制定规范和标准,才能确保人工智能技术的安全性和可靠性,为人类社会的进步和发展做出更大的贡献。在推进全球人工智能安全治理的这一过程中,大国责任的发挥显得尤为重要。
参考文献
1. AI SAFETY SUMMIT, HOSTED BY THE UK 1ST AND 2ND NOVEMBER AT BLETCHLEY PARK,https://www.aisafetysummit.gov.uk/
2. FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence,October 30, 2023, https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/
3.全球人工智能治理倡议,2023年10月20日,https://www.fmprc.gov.cn/web/wjb_673085/zzjg_673183/jks_674633/fywj_674643/202310/t20231020_11164831.shtml
文字 | 秦风
图片 | 来源于网络
编辑 | 许婧
审阅 | 韩建臣
声明:本文来自军事高科技在线,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。