本文刊发于《国际安全研究》2024年第5期,第135-156页,注释略。
生成式人工智能时代的语言安全:系统性风险与治理路径
李春南 王 山
李春南,西南政法大学政治与公共管理学院讲师
王山,西南政法大学政治与公共管理学院副教授
内容提要
随着生成式人工智能(Generative AI)的快速发展和广泛应用,语言安全逐渐超越了信息和文化安全等传统国家安全界限,在语言技术、语言认知、语言行动等维度面临新的挑战。识别和分析生成式人工智能时代的语言安全,把握其理论内涵和风险生成机制,对预防和化解语言安全风险意义重大。本文探究生成式人工智能时代语言安全的理论内涵及其构成要素,基于“技术—认知—行为”的分析框架厘清该时代语言安全风险的生成机理,提出针对性的治理策略。生成式人工智能时代语言安全的理论内核和构成要素呈现出技术、主体与社会互嵌的特性。语言安全在生成式人工智能技术研发和应用的不同环节存在差异化和动态化的语言风险样态和逻辑。针对生成式人工智能带来的语言安全风险提出制定和实施高层次国家语言安全战略、建立生成式人工智能自主生态体系、提高该技术的透明度与可解释性、开发多语种模型、提升公众数字素养和语言安全意识等治理对策。
关键词
生成式人工智能;语言安全;风险;安全治理
引 言
语言安全是保障国家安全和社会发展的重要条件。随着ChatGPT等大型人工智能模型的广泛使用,生成式人工智能开始引领主体间语言系统、话语交互的范式转变。语言学家诺姆·乔姆斯基(Noam Chomsky)指出:“我们担心最流行和最时髦的人工智能技术,会通过将一种从根本上有缺陷的语言和知识概念纳入技术来降低我们的科学水平并贬低道德规范。”ChatGPT等大语言模型(large language model, LLM)几乎绕开了当代主流的语言学理论与方法,通过获取大量数据,遵循一定的统计规律,以更快的速度和更低的成本创建海量、高质量和拟人类的语言内容。生成式人工智能生态系统与社会语言功能、政治功能、文化功能等交织,带来了前所未有的系统性风险。
当前研究聚焦于人工智能与国家核心安全之间的关系,对生成式人工智能与语言安全的关系研究较少。《中华人民共和国国家安全法》不包含“语言”这个词语,但这并不意味着国家安全与语言无关。语言不只是交际的工具,也是文化的容器、身份的象征、知识的载体、心智的窗口、思维的手段和国家的资源。国家安全观的更新与升级使得语言在传统安全和非传统安全中的作用越发重要。生成式人工智能技术的颠覆性革新所造成的语言安全风险更为隐性,使国家在语言技术、语言认知、文化和信息权力方面的博弈复杂化。国家需要制定和实施语言安全战略,进行动态、预控管理,避免语言安全危机的发生。本文将基于“技术—认知—行为”的分析框架厘清生成式人工智能时代语言安全风险的生成机理,并提出针对性的治理策略。
一生成式人工智能时代语言安全的内涵和特征
在生成式人工智能技术迅猛发展的背景下,传统的语言安全理论无法全面应对这一新兴技术所带来的复杂风险格局。为此,本部分将从技术、社会、文化等多维度重新界定语言安全的内涵与特征,为分析生成式人工智能技术所引发的系统性风险奠定理论基础。
(一)生成式人工智能时代语言安全内涵
第一,语言安全成为国家总体安全的次分支领域。习近平总书记在论述总体国家安全观时指出,我们既要重视传统安全,又要重视非传统安全。语言安全是国家安全的一个次分支领域,语言安全的定义、研究及应对都必须放在国家总体安全的范围内来进行。语言安全的重要性在于它内嵌到国家的文化、经济、政治和社会等各个领域,制约或保障传统和非传统安全领域中的其他安全问题,直接影响国家的整体发展和安全。
国外语言安全理论的核心术语是“语言不安全”(linguistic insecurity),语言安全从语言形式层面扩展到语言使用和语言身份的社会和文化领域。“语言不安全”与国内“语言安全”术语虽然存在差异,但二者都关注语言问题的安全化。国内长期以来将语言安全作为国家安全的次分支——国家文化安全的基本内容加以关注。刘跃进把语言文字看作“国家文化安全”的第一个构成要素;潘一禾认为文化安全问题也体现为语言安全。近年来,随着全球化、城市化、多极化和信息化等的发展,学界对语言安全内涵的研究不断拓展。语言安全成为与文化安全并列的非传统安全领域,涉及语言政策、外语教育、意识形态、语言文化、文化安全、话语权以及话语体系等问题。语言安全分别在微观、中观和宏观层面作用于个人、社群和国家,包括语言交际安全、语言本体安全和语言战略安全。作为交际工具和社会功能的载体,语言的使用所可能引发的社会、文化、经济、政治、信息、军事等问题贯穿于系统维护和塑造国家非传统安全和传统安全的始终。
目前,学术界多从广义维度对语言安全进行定义,认为语言安全是指语言文字及其使用能够满足国家和社会稳定与发展的需要,不出现影响国家、社会安全的语言问题。语言安全涉及语言文字本身状况和语言文字使用与国家社会安全的关系,具体包括语言标准化、规范化、传承、复兴、迁移和纯洁性,以及语言在国际竞争、国家安全、社会稳定和文化传承中的角色和功能。从内核来看,语言安全是指和谐的语言关系;从外核来看,语言安全是指语言相对处于没有危险和不受内外威胁的状态,以及保障持续安全状态的能力。语言安全的核心在于确保语言文字及其应用能够有效支撑国家与社会的稳定与发展,避免产生任何对国家安全或社会秩序构成威胁的语言问题。
第二,生成式人工智能时代自然语言处理技术的变革进一步凸显了语言安全作为非传统安全问题的基础性和复杂性。自然语言是自然地随文化演化的语言,它既是人类交流的主要手段,也是一个庞大的信息库,具有模糊性、隐含性、多样性和上下文依赖性等固有特征。自然语言与人工智能技术的深度交融奠定了生成式人工智能变革的基础。
当前,OpenAI、DeepMind 和 Anthropic 等著名人工智能机构开发和迭代了生成式人工智能产品,实现了深度学习、无监督学习、指令微调、多任务学习、文本内学习和强化学习等多种技术的集成。以ChatGPT为代表的生成式人工智能产品,本质上是一个由1 750亿个浮点数参数表示的深度神经网络大模型,不仅能理解自然语言中的复杂语义,还能理解用户的意图或情绪,它引领了一股跨界整合式的颠覆性技术潮流。生成式人工智能表现出快速密集和低成本的内容生成、多样性和多模态支持等特征,使其形成一个从上游到下游紧密相连的生态系统:基础层由数据供应商、算法机构、硬件开发机构组成;模型层包括大型科技公司在云计算中部署算法,搭建计算资源并配置相应的参数,优化算法性能和效率,将算法封装成有对外接口的工具;应用层由各种面向用户端的内容创建平台组成。
生成式人工智能时代的大数据、大模型、强算法的研究范式,逐渐从自然语言处理领域蔓延至语音、视觉、多模态和机器人等领域。语言资源理论认为,语言信息处理技术和相关智能服务是国家语言能力的重要组成部分。大模型对语料、数据化能力、算力、算法构成了巨大挑战,涉及语言人才、产业、教育和规划、技术等诸多方面,是综合国力的体现。生成式人工智能的诞生和演变从语言技术、语言认知、语言行动等多维度影响语言安全的内涵和外延。一个国家语言技术的开发和使用能力决定了该国在国际生存与发展竞争中的安全系数。
第三,语言安全及系统性风险存在多维分析框架。生成式人工智能不仅衍生出新的语言交互和使用场景,而且也为传统语言安全防范提供了新的治理工具。然而,单纯依靠生成式人工智能技术,而忽视该技术发展与社会理念、制度、法治和伦理等维度的互构性,可能带来人们常态化使用生成式人工智能技术进行语言交互之外的潜藏风险。根据乌尔里希·贝克(Ulrich Beck)的定义,风险是现代科技和工业发展所带来的不确定性和潜在危险,是由人类活动本身所产生的,且具有全球性、不可控性和长期性的特点。本文讨论的语言安全风险指的是由生成式人工智能技术广泛应用给个人、社会和国家的语言认知、语言行为过程所带来的不确定性和潜在危险。
本文从“技术—认知—行为”三个维度重新对生成式人工智能时代的语言安全进行新的解读,认为既要理解该时代语言安全的技术逻辑,也要透析人们的语言认知和语言行为。基于此,本文将生成式人工智能时代的语言安全分为语言技术安全、语言认知安全、语言行动安全(如图1所示)。
其中,语言技术安全指的是自然语言处理技术的准确性、可靠性和可控性。语言认知安全涉及语言主体在使用和理解语言技术时的认知过程、心理安全和能力安全。语言行动安全指的是语言技术在政治、公共话语、国家战略层面应用中的安全性。
(二)生成式人工智能时代的语言安全新特征
第一,语言数据成为国家安全领域的“新石油”。生成式人工智能时代更大的数据集是“燃料”,更大的基础模型是“引擎”,而广泛的算力是“加速器”。超大规模、高质量的语料库是语言模型的基础。从稍早期的BERT系列、GPT系列、T5到如今的Palm、LLaMA、GPT-3.5/4 等大模型,均通过大规模数据训练和复杂算法实现自然语言生成。如ChatGPT已经接受了大量文本数据的训练,特别是Common Crawl数据集,其中包括来自互联网上各种来源的超过1万亿个单词。GPT-2以40GB的数据进行训练,GPT-3以1 750亿个参数或大约700GB的数据进行训练。语料库包括预训练语料与微调语料两个部分,其中预训练语料包括从书籍、杂志、百科、论坛等渠道收集,并初步清理后形成的海量无标注文本数据;微调语料包括从开源代码库爬取、专家标注、用户提交等方式收集和加工的高质量有标注文本数据。训练所需数据规模也从几十亿词猛增到万亿词,可以预见互联网上公开可用的语言数据资源终将被耗尽,这会促使研究者寻找、挖掘高质量语料库资源。
技术强国正在试图通过算力网络把散布在各地的算力集中调配,对各种语言大数据制定标准、评估和定价,发挥语言数据作为新生成要素和战略资源的重要作用。李宇明等提出了“语言数据”概念并阐释了其重要价值。语言数据是以语言符号体系为基础构成的各种数据,即语言学科数据、话语数据、语言衍生数据、人工语言数据和语言代码数据。生成式人工智能时代的语言本体安全不仅指语言自身的生存、发展不受威胁的一种状态,也是指语言本身转化为核心生产要素和国家基础性战略资源的安全。以语言符号体系为基础构成的各种语言数据可以被看作非传统关键资源。这些资源涉及语言的社会属性、生存状态、媒介装备等。
第二,语言技术从工具性转向主体性。语言安全研究通常将语言技术作为主体获取信息的工具。然而,生成式人工智能不仅包括物理仪器和软件,还包括概念框架、通信媒介、社会规范和机构政策。它成为数字互动的基础设施,其所带来的冲击不仅指向传媒界、科技界和经济界,更指向人类的生活模式、思想意识和社会结构,意味着一场文明范式的转型。在这个范式中,技术是人类能力的延伸,是人类互动的媒介,也是社会结构的塑造者,在有形和无形、物质和抽象的交织中发挥作用。生成式人工智能是自生技术系统的一个子系统,它在个人思维、物理世界以及思想与社会之间起到中介作用。
尤瓦尔·赫拉利(Yuval Noah Harari)认为,人类文化基于语言,而因为人工智能已经破解了语言,它可以创造文化,并将改变人类思考、感受和行为的方式。虽然生成式人工智能依靠统计概率和模式识别来处理自然语言数据本身,并不能处理多样的语言外信息;它们也无法利用人类自然语言学习的递归性组合规律,把语言符号跟语境中的所指物建立起真实关联。但不可否认的是,生成式人工智能技术正在加速演化。其模型跳过了词法分析、句法分析和语义分析等中间性的自然语言理解工作,从不同的词在词语序列中的分布概率来有效地预测后词,和概率统计性的语言学知识非常贴近。甚至有研究认为它们已经具有人类的心智。ChatGPT完成了12个经典的心理语言学实验,结果只有2个与人类不同。这充分表明大语言模型的分析能力很大程度上已经和人类接近,生成式人工智能能够生成多种风格和类型的语言内容,在语法、风格和语义上接近人类创作,具有高度的拟人化特征。
从系统论的角度分析,生成式人工智能模型是一个自我参照的自生系统。在自生技术系统的环境中,存在意识、交流和身体的自我参照系统。生成式人工智能的语言技术对传统语言身份安全和认同安全提出了挑战。语言技术不再是存在于语言主体之外,而是封装于语言之中持久的模式或语义结构,深度嵌入语言主体的认知过程。语言生成过程中可能无意中引入偏见、歧视或虚假信息,带来潜在的语言身份和认同安全隐性风险。在生成式人工智能时代,语言技术实现了与语言主体、语言身份和认同、语言符号系统以及权力系统的深度互嵌。
第三,语言安全治理的脱域性。生成式人工智能时代语言安全治理脱域性是指治理行为和治理对象在时间和空间上的分离。在语言安全治理方面,传统的治理方式多依赖于地域和空间上的集中,政府和机构通过直接的管控和监督来保障语言安全。然而,生成式人工智能技术的发展使得语言数据和语言技术的应用突破了地域和空间的限制。语言数据可以在全球范围内流动和共享,语言技术也可以通过云计算和边缘计算等方式进行分布式部署。这种脱域性带来了新的治理挑战,包括跨国界的数据流动、全球化的语言安全威胁以及多样化的语言使用场景。
传统的语言安全治理主体主要是政府和国家机构,而在生成式人工智能时代,科技公司、非政府组织、学术机构以及个人用户都成为语言安全治理的重要参与者。人工智能嵌入安全场域后,将导致主体模糊化、权责划分离散化的问题。人工智能的广泛普及、训练和部署都使得人工智能治理,甚至是开展国际合作治理人工智能变得复杂。主体之间的合作困境对语言安全治理带来新挑战。传统的治理手段主要依赖于法律法规和行政手段,而在生成式人工智能时代,需要更多地依靠技术手段,如数据加密、隐私保护、算法透明等。同时,语言风险全球化需要建立国际合作机制,共同制定全球范围内的语言安全治理规范和标准。
二生成式人工智能时代语言安全的系统性风险
生成式人工智能技术与社会的深度互嵌使语言安全的范畴扩展至国家安全的多个层面。它不仅革新了语言生成与传播的方式,还重塑了社会主体认知与行为模式,进而引发了新的安全挑战。这些挑战跨越技术、认知和行为等多个维度,形成了复杂且隐蔽的系统性风险。鉴于这些风险对个人、社会和国家安全可能产生的深远影响,本文从“技术—认知—行为”三个维度探讨生成式人工智能时代语言安全的系统性风险,分析其生成机理。
(一)技术维度的语言安全风险
在技术维度上,语言安全风险主要集中于语言数据和语言模型的层面。这些风险源自数据收集、模型训练以及算法设计与实施过程中潜在的语言问题。生成式人工智能模型作为一个自生系统深度嵌入社会语言系统之中,从而引发语言系统自身的变化。具体而言,在语言数据收集过程中,数据的代表性、完整性和多样性直接影响模型的准确性和偏倚性。而在模型训练阶段,算法的选择、参数的调优以及训练数据的质量均对模型性能和安全性产生深远影响。此外,模型设计与实施中存在的透明性和可解释性问题,也可能导致语言系统的不可控变化。这些因素共同作用,使得生成式人工智能模型成为影响社会语言生态的重要变量。
语言数据安全风险主要有数据偏见、数据投毒和数据隐私泄露等三种类型。
第一,数据偏见。大语言模型的训练语料会对自然语言存在的文化规范和类别进行编码,因此语言模型从来都不是价值中立的,它们代表并延续了训练数据中存在的价值观和规范。训练语料中的偏见导致训练后的词向量具有偏见或者歧视性,甚至可能产生仇恨和极端的内容。虽然前沿科技公司投入大量资金来解决这些问题,但并没有办法完全隔绝语料中内涵的社会文化逻辑。
一种语言(或几种语言)的训练数据可能会产生单语偏见。语料库的不平衡会对文化多样性、公平性和保护产生不利影响。仅代表一小部分人的语言数据可能会产生排他性规范。如ChatGPT等模型主要依赖以英语为中心的语料库,使其内容主要反映以英语为中心的观点和价值观,同时严重限制其他语言和文化的表达。这种差异可能加剧少数语言和文化的边缘化和被歧视,阻碍文化多样性。当模型缺乏足够的语言和文化数据时,它们就会不准确地捕捉特定文化的语言习俗、历史和价值观。因此,生成的内容可能缺乏文化的准确性和敏感性,产生不准确或令人反感的言论,并最终阻碍跨文化理解。
第二,数据投毒(data poisoning)。有毒言论一般包括亵渎、身份攻击、欺骗、侮辱、威胁、露骨的色情内容、贬低性语言、煽动暴力的语言或者针对个人或群体的敌对和恶意语言。这种语言有可能造成冒犯、心理伤害,甚至在煽动暴力的情况下造成物质伤害。攻击者将少量精心设计的中毒样本添加到模型的训练数据集中,利用训练或者微调过程使得模型中毒。攻击者会将有毒数据插入目标模型的训练数据集中,导致模型性能下降或后门入侵。一个著名例子就是微软的聊天机器人Tay,它可以在自己与推特(Twitter)用户对话时在线学习,而短短24小时内,Tay 就在部分用户的刺激下说出了不当言论,包括脏话、种族歧视性语言等。
为了提高生成式人工智能安全性,使其与人类道德和偏好保持一致,目前主流的方法包括数据过滤、监督微调、人类反馈强化学习和红队。然而,技术亦面临发展不均衡的风险。大型语言模型在非英语语言上的安全性表现显著低于英语,特别是资源较少的语言表现较差。
第三,数据隐私泄露。大规模语言模型依赖包含有关人员信息的训练数据集。当训练数据包含由模型直接披露的个人信息时,可能会发生侵犯隐私的行为。例如,当用户点击“我同意”时往往带有一种被胁迫感:为了获得基本技术,不得不放弃对个人数据的控制权。比如,Scatter Lab的聊天机器人Lee Luda可以通过询问披露训练数据集中的随机姓名、地址和银行账号,Scatter Lab甚至在GitHub上传了Luda的训练模型,其中包括暴露个人信息的数据,此举引发了针对Scatter Lab的集体诉讼。此外,大语言模型可能通过情报机构公认的汇编分类程序生成敏感的国家安全信息。
语言模型的安全风险主要包括两类:一是模型偏见。模型偏见是指模型根据种族、性别和残疾等特征对待个体。目前,大语言模型表现出涉及种族、性别、宗教和政治取向的偏见。戴维·罗萨多(David Rozado)等对ChatGPT进行15种不同的政治取向测试,其中14种诊断出ChatGPT回答表现出对左倾观点的偏好。偏见问题在词性标注、对话系统、机器翻译等各类自然语言处理任务中也十分普遍。上述偏见问题很大程度上源自训练数据中存在的偏见,会导致算法受到影响,从而使得依赖算法的决策形成偏见。
二是幻觉风险(hallucination risk)。幻觉风险是人工智能模型生成的内容中出现不真实、不准确或与上下文不相关的信息。2023年,OpenAI首席技术官米拉·穆拉蒂(Mira Murati)明确指出,他们一直遵循的研究方向是解决模型的事实准确性和可靠性等问题。一个可信赖语言模型的设计和期望是反映现实世界,模型输出的语言应该具有语法和语义上的准确性和合理性。许多著名的大型语言模型在大规模训练数据、转换器的注意力机制、预训练技术的加持下注入了语义。然而,大语言模型难以避免事实错误和知识幻觉,人们在使用大模型获取信息时,经常会遇到机器“一本正经地胡说八道”, 其中事实错误、内容空洞、逻辑混乱是最为典型的问题。如果模型错误地使用了知识或使用了错误的知识,输出了语言层面流畅的回复,同时又缺乏相应的机制对信息的准确性进行检验和修正,那么模型的语言能力越强大,用户则愈发难以甄别其中的信息准确性风险。张华平等的研究发现,ChatGPT在中文的知识和常识问答上很容易出现错误,并且它会使用流畅的句子对编造的虚假事实进行阐述。以唐三藏和葬花吟的问题为例,ChatGPT 4o的回答明显出现了文化常识错误。ChatGPT在中文准确性上的幻觉可能源自对中文训练数据源的控制不够严格。国产大模型如文心一言通过海量的中文语料库进行训练,增强了对中文的理解和生成能力(参见图2)。
(二)认知维度的语言安全风险
语言认知是语言主体对语言的感知、理解和使用的能力,包括语言生成、语言习得、语言思维等多个方面。随着生成式人工智能普及到日常生活的各个方面,会对人类语言认知带来一些风险,包括语言主体消解、语言认同混乱和语言能力单一化等现象。
第一,语言主体消解。生成式人工智能对语言主体的影响是一个伦理难题。乐观的研究者认为,它可以让人类不断发挥想象力和创造力,掀起超越人工智能的新的“浪漫主义运动”。ChatGPT与人类高效互动倒逼人类丰富自身的语言意象。但也有学者认为生成式人工智能本身不可能产生新的修辞方式,也不会影响人类不断产出新的修辞范式。
与之相反,持批判意见的学者认为生成式人工智能作为信息资本主义的前沿产物,将全方位直接介入每个人日常生活的既有结构。他们认为该过程压缩了各种形式的价值所依赖的自我空间,破坏了相对自主的人类生活,而使对资源的开发重点从土地、石油转向每一个人自身的生命之流。生成式人工智能时代自然人、智能机器人、虚拟数字人在一起生活,“人”的多样性、宇宙的多样性让我们所处的世界变得更加多元、更加复杂。在技术壁垒和模型不透明的限制下,普通人很少被允许访问自己的数据,而且缺乏分析和理解它的能力。
生成式人工智能的便利性和强大性可能会导致语言主体对其的过度依赖。与传统搜索引擎提供多种信息来源供用户作出个人判断和选择不同,生成式人工智能为每个提示生成特定答案。用户可能会养成在没有合理化或验证的情况下采用答案的习惯。过度依赖生成式人工智能技术会阻碍创造力、批判性思维和解决问题等技能,以及创造由于习惯性地接受生成式人工智能建议而导致的人类自动化偏见。研究发现人类的自然语言与生成式人工智能生成语言相比,人类回答语言表现出易读性高、论元重叠度低、口语色彩明显、用词丰富多样、互动性强等优点。生成式人工智能创作的诗歌、剧本等文化内容使得话语变得更加同质化和排他性。它驱动“快餐式”的内容创作方法,会导致作品通用且缺乏原创性,扼杀创意产业的多样性和丰富性。过度依赖生成式人工智能的后果可能是语言主体自我价值的消解。
第二,语言认同混乱。语言是民族或国家身份的象征,掌握标准语有利于构建民族或国家身份,保障社会稳定和安全。随着生成式人工智能技术在语言生成方面的应用,人们可能会对机器生成的语言内容产生依赖,影响他们对母语的忠诚度和认同感。研究发现大语言模型会影响英语使用中的单词选择、句法和语义适应。有学者分析了ChatGPT对英语词汇和语义变化的影响,认为ChatGPT能够适应语言情景和文化背景,生成新词汇和技术术语。
在生成式人工智能时代,人们拥有虚拟身份及数字化身变得越来越普遍,个体对现实世界和虚拟世界之间的身份认同日益感到困惑。生成式人工智能制造的文化产品越来越难以区分,高度仿真的内容模糊了原有的文化界限,使人们对文化价值的理解和认可逐渐模糊。人们可能会更多地与虚拟助手或机器人进行交流,而不是与真实的人类进行面对面的交流。真实社会互动的减少削弱了文化创造的动力,对文化安全构成重大威胁。
在全球化背景下,欧美国家的文化霸权问题势必牵涉语言模型的霸权问题,以及由此衍生的语言生态安全问题。“沃尔夫假说”(Sapir-Whorf Hypothesis)认为,语言决定思维,目前最尖端的生成式人工智能大模型以英语为主导信息语言,许多有价值的信息资源均以英文传送和传播,潜移默化传播英语的思维模式、行为准则和价值观念等。生成式人工智能可能形成反馈循环,即技术模型使霸权规范或类别永久化,进而影响人们在自己的语言中使用这些规范或类别。这种反馈机制强化了语言霸权,使这些规范和类别在未来的训练数据中更加突出,进一步巩固了其主导地位。这种语言霸权现象不仅削弱了其他语言的地位,还对全球语言认同和语言生态系统的平衡构成了潜在威胁。
第三,语言能力单一化。语言能力单一化风险是指在某些语言(特别是主流语言)逐渐取代其他语言,导致语言主体的语言使用能力多样性减少的风险。全球约有7 000种语言,不同语言之间的交流与接触是人类社会的一种常态,世界上不存在百分之百的“纯洁”语言。隔绝不仅不能保障安全,而且还会导致整个国家的不安全。中国是一个多民族国家,境内语言资源丰富,共有130多种语言,分属于汉藏语系、印欧语系、阿尔泰语系、南亚语系和南岛语系。多语言的国家在面临外部威胁时,如果无法有效利用其多样的语言资源,就可能在情报收集、对外交流和内部凝聚力方面处于劣势。
目前国内外的语言大模型对于低资源语言的开发均很不足,生成式人工智能模型数据主要以少数主流语言(如英语、汉语、法语等)为主,导致模型对非主流语言的支持极为有限。如ChatGPT的语言模型主要服务的语言仅为95种,超过99%的语言尚未在人工智能环境中找到话语权。OpenAI目前没有透露英语在ChatGPT的训练数据中所占比例,谷歌的聊天机器人Bard被问及这些信息时也表示数据样本是机密。AI巨头Meta正在投资一个名为“不落下任何语言”(No Language Left Behind)的大型翻译项目,旨在利用机器学习技术开发翻译工具,确保全球各类语言都能得到充分的支持与精确的翻译。即便如此,该公司也承认其最新的大型语言模型Llama 2对于非英语用户来说仍不适用。这种资源的不平衡导致低资源语言的技术支持和应用场景的缺乏,会加剧语言主体在语言选择和使用上的单一化风险。
虽然生成式人工智能可以通过翻译、语言学习和文化推广等手段促进某些小语种的保护和复兴,如欧洲成功利用新技术(包括AI)支持少数民族语言,苏格兰的盖尔语通过数字教育项目得到了保护和推广,但从全球范围来看,生成式人工智能可能会扩大不同语言群体间的数字鸿沟。特别是对于那些无法访问设备或互联网的人,或者那些生活在被人工智能供应商或网站封锁的地区的人来说,其语言没有被生成式人工智能模型所学习或纳入,他们可能会面临语言和文化再生产的障碍。
(三)行动维度的语言安全风险
行动维度的语言安全是指人们利用语言从事各种社会活动的安全。人工智能使个人、组织和国家之间的沟通性质发生了变化,它们越来越多地由生产和呈现内容的自动化系统进行链接。生成式人工智能技术以多种方式影响着社会公众、学术机构、政治机构和国际主体的决策。令人担忧的是,生成式人工智能基于神经网络或深度学习算法构建,这些黑盒模型的复杂性与不透明性使它们难以展示其思维过程。生成式人工智能语言生成、传播的自动化和规模化可能会使现有趋势更加极端,并促成新的政治动力机制。它可能被用于虚假信息和深度伪造、信息污染和信息过载、语义攻击和语义操纵、语言安全技术和对抗性攻击等行动中,从而对社会政治稳定和国家安全构成威胁。
1.言语风险
第一,政治话语操纵。生成式人工智能技术在政治和治理领域的滥用表现为通过操控政治话语来影响公共舆论和决策过程。这种操控利用了生成式人工智能生成内容的自动化和规模化优势,以精确、迅速地生产和传播大量政治信息,从而对选举、政策制定和政治稳定产生重大影响。生成式人工智能网络攻击与传统数字威胁截然不同,其速度、覆盖范围、适应性和复杂性都超出了传统技术的反应速度和控制能力。具有政治偏见并被大量使用的生成式人工智能系统是风险的主要来源,主要表现在以下几个方面:
政治偏见和歧视加剧。生成式人工智能的数据偏见和模型偏见使得人工智能生成内容在政治话语中放大已有的偏见和歧视。有学者研究发现,主流人工智能模型在复杂主题查询(如自由主义)上产生的结果带有明显的语言偏见,这些语言偏见在网络上产生了严重的社会政治影响。
虚假信息传播。人工智能生成的内容工具可能被用作武器,以前所未有的规模传播错误信息。在美国炒作“中国气球”事件期间,有用户发现ChatGPT支持美国击落中方气球,却不支持中国击落美方气球。
深度伪造技术嵌入升级。2023年全球深度伪造欺诈事件比2022年增加了10倍。有学者演示了如何利用 ChatGPT生成报纸。Sora、Midjourney、DALL-E和Stable Diffusion等生成式人工智能技术能够根据文本生成逼真的图像和视频。深度伪造的内容如果被大量用户接触和信任,将会严重影响国家意识形态安全。
第二,社会公共话语极化。生成式人工智能技术可能被用来制造极化,即操纵者利用网络水军在网络上散播虚假信息,煽动、激发公众的负面情绪,制造群体对抗。公共话语极化可能会加剧社会分裂、信息泡沫和偏见等问题,从而对社会稳定和发展产生不利影响。人工智能技术的进步使得攻击者能够利用现有技能和资源进行更大规模和更多样化的攻击,超出目前的防御能力。生成式人工智能技术与公共话语的生成和传播机制的结合带来的风险表现在以下几方面:
语义攻击和语义操纵。生成式人工智能技术被用于分析社交网络中的信息传播模式,通过对社交网络图的分析,研究人员可以识别出意见领袖和信息传播的关键节点,从而理解信息如何在不同群体中传播和被接收。研究人员可以对大量的社交媒体数据进行情感分析和观点挖掘,识别出不同群体的情感倾向和观点分布。有学者讨论了使用生成式人工智能针对特定网络社区进行钓鱼式攻击。ZeroFox研究人员开发了一个名为SNAP_R的工具,利用用户的公开社交媒体数据创建逼真的网络钓鱼内容,攻击特定用户。在新冠肺炎疫情期间,大量人工智能生成虚假信息、社交媒体机器人传播阴谋论,不仅误导了公众对疫情的认识,还引发了不同群体之间的对立和冲突。
信息污染和信息过载。生成式人工智能能够在极短的时间内生产大量内容,这种规模化的信息生成使得用户面临信息筛选的巨大挑战。生成式人工智能的网络攻击工具可以寻求非法访问数据并从中了解目标系统的漏洞,从一系列选项中选择继续和感染目标网络。借助回声室效应(echo chamber effect)产生公共话语极化的后果,即在社交媒体和网络平台上,用户通过关注特定的消息来源和算法推荐,逐渐形成一个同质化的信息环境,强化原有观点,忽略或排斥不同的声音和观点。
由于生成式人工智能技术的复杂性与不透明性,大部分民众缺乏分析数据的技术、基础设施和专业知识,使得不同主体间的数字权力差异进一步扩大。信息的泛滥和质量的不均衡使得用户在处理信息时更加疲惫,并且可能加剧信息泡沫和社会极化。
2.语言战略风险
语言战略是将语言作为国家重要文化资源,把国家语言能力作为国家软实力的重要代表,以确保国家安全和发展为目标的整体计划。生成式人工智能时代的国际政治是一个“硝烟弥漫的战场”,在政治的坩埚中新型技术能力才能被催化。欧美国家生成式人工智能的发展形塑数字资本主义的力量。美国于2006年就启动了“国家安全语言计划”,强调“关键语言”在保障国家安全中的重要意义。生成式人工智能时代的语言战略风险主要表现为以下两个方面。
第一,技术垄断。美国和中国的企业家、公司和机构都在竞相抓住生成式人工智能所带来的商业和战略机遇。2024年5月22日,美国众议院外交事务委员会投票通过了一项旨在扩大白宫对开源人工智能大模型出口监管权力的新法案。这一立法举措的目的是巩固美国在整体技术体系及各细分领域中的技术“护城河”,对中国国产语言大模型形成代际竞争优势。尽管中国国产大模型近年来取得了显著进展,但与国际顶尖大模型相比仍存在一定的差距。这些差距主要体现在数据资源和训练规模、算力和硬件资源、算法和模型创新、应用生态和产业支持等方面。
数据处理软件和数据库软件基本被美国企业垄断。随着美国《科学与芯片法案》的施行,高端芯片的限制对大模型的研究进度和技术效率造成了显著影响。例如,美国NVIDIA等公司生产的GPU在全球范围内被广泛应用于深度学习任务。为了维持其技术霸权和国家安全,美国采取了科技封锁策略,包括限制高性能GPU芯片以及控制设备和组件的出口等措施,这对其他国家在大数据处理、人工智能、无人驾驶技术和元宇宙等前沿科技领域的发展构成了重大障碍。
尽管中国国产框架在技术上已经实现了各具特色的局部创新,但整体上仍以追随国际主流框架的范式为主。Google的Transformer架构、OpenAI的GPT系列以及DeepMind的Alpha系列在自然语言处理和深度学习领域依然引领技术潮流。中国国产大模型在应用生态的构建和推广上仍需更多投入和支持,特别是在跨行业的应用和集成方面。在技术垄断的全球格局下,中国在生成式人工智能方面面临的挑战不仅限于技术本身,还包括由国际技术霸权带来的全方位限制。
第二,治理脱域。生成式人工智能技术发展不可避免地涉及主权国家治理的新风险。数据主权指一个国家对其政权管辖地域范围内个人、企业和相关组织所产生的数据拥有的最高权力。生成式人工智能技术的发展使得语言数据和语言技术的应用突破了地域和空间的限制。语言数据可以在全球范围内流动和共享,语言技术也可以通过云计算和边缘计算等方式进行分布式部署。这种脱域性带来了新的治理挑战,包括跨国界的数据流动、全球化的语言安全威胁以及多样化的语言使用场景。
生成式人工智能数据体量大、增速快且涵盖敏感信息,在跨境过程中存在传输链长、参与主体多元、威胁成因复杂等多重挑战。通过对跨境流动的数据进行大数据分析,一国可能对他国的社会状况进行精准画像,并有针对性地开展情报收集和研判等工作。中国2022年实施《数据出境安全评估办法》,以提升对敏感语言数据泄露、违法跨境语言数据流动等安全隐患的监测、分析与处置能力。2023年5月23日,国家互联网信息办公室发布《生成式人工智能服务管理暂行办法》,这是中国首份专门针对生成式人工智能的监管文件。但是,国家当前对于非敏感语言数据的监管处于模糊地带。很多语言数据不包含个人隐私或国家安全信息,但其大规模收集和跨境流动可能对语言资源以及数据主权产生潜在影响。
三生成式人工智能时代语言安全风险治理对策
语言安全治理应该服务于推动人类命运共同体的构建,有助于人类社会的多样性发展,进而开创合作共赢、共建共享的新发展道路。2023年中国提出《全球人工智能治理倡议》,旨在推动国际社会共同应对人工智能带来的风险挑战,确保技术造福全人类,并支持在联合国框架下讨论成立国际人工智能治理机构。传统的语言治理方法难以应对生成式人工智能所带来的结构性变化,需要从全球竞争力与领导力的战略高度审视语言安全问题。语言安全风险治理需要政府、学术界、产业界以及社会各界的共同参与,推动语言安全事业适应迅猛发展的技术革命发展趋势。
(一)制定和实施高层次国家语言安全战略
国家需要制定明确的语言安全战略,提升语言安全在国家发展战略中的重要性。语言战略应当涵盖语言资源的保护与开发、语言技术的创新与应用、跨文化交流与国际合作等。在政策制定过程中,应充分考虑国家的语言环境和需求,结合国家发展的现实情况,确保政策的针对性和可操作性。国家需要建立健全语言安全治理体系,明确相关部门的职责和权限,加强协调合作,形成一盘棋的整体部署。在治理体系建设中,需要注重政府与市场、政府与社会的互动与合作,共同推动语言安全事业的发展。
在语言安全战略实施过程中,加强国际交流与合作,推动建立全球语言安全治理机制,共同应对全球化带来的语言安全挑战。在国际合作中注重尊重和保护各国的语言和文化多样性,增强发展中国家在生成式人工智能技术中的代表性和发言权,开展面向发展中国家的国际合作与援助,不断弥合智能鸿沟和治理能力差距,促进文明交流互鉴,构建人类命运共同体。建立全球范围内的语言数据保护和治理机制,促进跨国界的语言数据流动和技术合作,确保全球语言多样性和文化多样性的可持续发展。
(二)推动建立生成式人工智能自主生态体系
国家可通过长远的战略规划和持续的资金投入,加强本土生成式人工智能技术的研发和创新,鼓励本土科技企业积极参与研发,以提高国内语言数据处理和应用方面的自主性和安全性。语言智能能力提升应以数据为基础,以评测为牵引,强化“数据—技术—评测”闭环。尖端企业应不断提高语言数据资源的质量和多样性,不断优化数据处理和清洗技术,推动算法和模型的创新,促进独特的技术突破。行业推动建立丰富的应用生态,增强跨行业的应用和集成,最大限度地释放生成式人工智能技术的创新活力。国家、行业不以竞争、滥用的担忧为借口降低开放性。科研机构、行业协会坚持与国际研究机构合作,建立技术交流平台,参与国际标准的制定,共同开展生成式人工智能技术的研究与开发。
(三)提高生成式人工智能技术的透明度与可解释性
制定相关的法律法规和技术标准,把好语言智能的安全和伦理关,规范生成式人工智能技术的应用。数字时代的语言伦理治理,要有全人类的视野和古今中外融通的路向。首先,算法透明度是防范生成式人工智能模型风险的关键。研究者和开发者应当致力于提高模型的透明度,通过公开算法原理和决策过程,使得生成式人工智能技术的发展更加透明,确保该技术在遵循伦理原则的同时,实现公平和无偏的决策。其次,定期对生成式人工智能模型进行偏见检测,并采取有效措施纠正模型中的偏见,是维护语言和文化多样性的重要步骤。最后,进行伦理审查和发布前风险评估是确保生成式人工智能技术应用符合社会伦理标准的重要环节。特别在与数字安全或对抗性机器学习相关的技术领域,需要进行细致的风险评估,以确定适当的开放程度。人工智能产品的研发与宣传应以真实性与善意为核心,以人为本,致力于提升公众福祉。此外,应积极推动人工智能技术与生活文化的健康发展,构建共生互利的智能观。
(四)开发多语种生成式人工智能模型 维护语言多样性
构建多语种数据资源,训练能够处理多种语言的生成式人工智能模型,构建包含丰富多样语言数据的数据集,以确保模型训练过程中的公正性和避免偏见与歧视。政府推动低资源语言的数字化发展,利用生成式人工智能技术开发低资源语言的数字内容、翻译工具和语言学习应用,以确保其传承和发展。
技术模型关注文化适应性与敏感性。多语种的生成式人工智能模型不仅能够促进不同语言和文化之间的交流与理解,还能够加强跨文化的社会凝聚力。生成式人工智能技术在设计和应用过程中应考虑到不同文化的社会习俗、价值观念和交流习惯,确保技术的普适性和包容性。政府和相关机构应提供政策支持,鼓励企业和研究机构开发和应用多语种生成式人工智能技术,包括提供研发资金、税收优惠、知识产权保护等措施。通过生成式人工智能技术促进不同语言和文化之间的交流与合作,其应用需要跨越语言障碍,为不同语言背景的人们提供平等的交流平台,促进不同文化之间的相互理解和尊重。
(五)提升公众数字素养和语言安全意识
公众教育是提升语言安全意识的基础。将数字素养和语言安全课程纳入教育体系,培养学生正确使用数字技术的能力和语言安全意识。通过教育和宣传活动,增强公众对语言数据安全和数据主权的认识,提高公众对语言多样性和文化多样性保护的意识。构建一个尊重和保护语言多样性的社会环境,确保语言资源得到合理利用和传承。
技术培训是提升公众应用能力的重要途径。为公众提供生成式人工智能技术相关的培训,帮助公众更好地理解和使用这一技术。缩小不同群体间的数字鸿沟,促进社会公平,使更多的人能够享受到技术进步带来的红利。
公众参与是维护语言安全的重要力量。鼓励公众参与语言安全治理,形成全社会共同维护语言安全的良好氛围。政策制定者、技术开发者、教育工作者以及公众共同参与到生成式人工智能技术的治理和伦理审查中,构建一个更加开放、包容和安全的数字社会,为语言多样性的保护和传承提供坚实的基础。
结 语
本文系统地分析了生成式人工智能时代语言安全的内涵及要素,探讨了该技术在技术、认知和行为维度上对语言安全带来的多重风险,并提出了相应的治理对策。语言安全作为国家总体安全的重要组成部分,不仅限于语言本身的安全,更涉及语言在社会、政治、文化等方面的功能和作用。生成式人工智能发展形成了从上游数据供应、算法机构到下游应用平台的生态系统,对语言安全产生了深远影响。语言数据成为国家安全领域的“新石油”,语言技术从工具转向主体,语言技术实现了与语言主体、语言身份和认同、语言符号系统、权力系统的深度互嵌。语言安全的脱域性则带来新的治理挑战。
技术维度的语言安全风险包括语言数据安全层面的数据偏见、数据投毒、数据隐私泄露,以及语言模型安全层面的模型偏见、幻觉风险。认知维度的语言安全风险包括语言主体消解、语言认同混乱和语言单一化。行为维度的语言风险包括言语安全层面的政治话语操纵、公共话语极化,语言战略安全层面的技术垄断和治理脱域。为应对系统性的语言安全风险,国家需要制定和实施高层次语言安全战略,政府、行业、公众合力推动建立生成式人工智能自主生态体系,提高该技术的透明度与可解释性,开发多语种人工智能模型以维护语言多样性,提升公众数字素养和语言安全意识。
【来稿日期:2024-06-10】
【修回日期:2024-07-24】
【责任编辑:李水生】
编辑:杨旷达
一校:谢 磊
二校:谭秀英
终审:刘中伟
声明:本文来自国际安全研究ISS,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。