文 | 吉林大学东北亚地缘政治经济研究所副所长 姚璐;吉林大学国际政治系研究生 武政尧
人工智能技术的快速发展和广泛应用为世界经济的发展注入了强劲的动力。2023 年 6 月,美国市场调研机构大视野研究有限公司(Grand View Research)的《人工智能市场规模、份额和趋势分析报告》(Artificial Intelligence Market Size, Share & Trends Analysis Report)指出,2022 年,全球人工智能市场规模为 1365.5 亿美元,预计,从 2023 年到 2030 年将以 37.3% 的年复合增长率增长。然而,人工智能在带来巨大经济效益和社会效益的同时,也催生了新的政治安全议题,并对国家政治安全产生了深刻的影响。2017年,中国发布的《新一代人工智能发展规划》强调:“在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。”2021 年,美国人工智能国家安全委员会(NSCAI)发布的《最终报告》(Final Report)也指出,对人工智能技术的过度依赖既增加了社会各领域的网络入侵脆弱性,又对美国经济、关键基础设施和社会凝聚力造成新的威胁。面对人工智能与国家政治安全的深度嵌套,如何应对人工智能对国家政治安全带来的风险和挑战,更好地使人工智能技术服务社会发展,成为各国面临的共同问题。
一、人工智能技术新发展与国家政治安全新局面
优质数据资源的极大丰富、算法模型的不断创新以及算力水平的持续提高,共同推动了人工智能技术实现新的发展,主要体现在以下三个方面。
一是人工智能深度学习(DL)能力不断增强。人工智能的深度学习能力是指通过深度神经网络模型和算法,通过大量数据学习和提取特征,实现对数据的自动化分析和处理能力。与传统机器学习相比,深度学习使用具有大量参数的神经网络模型,可以逐层实现原始数据的抽象表示和高级特征提取。因此,人工智能的深度学习能力在处理大规模数据时具有更加出色的表现。
二是人工智能自然语言处理能力(NLP)显著增强。自然语言处理能力是指计算机利用各种技术和算法处理、理解和生成自然语言文本的能力。与传统人工智能相比,当代人工智能在语音识别、机器翻译、情感分析等领域取得了重大突破。以 ChatGPT 为代表的人工智能语言模型能够通过自然语言处理技术进行语言交互,并以与人类互动的方式回答各种问题,在科学、历史、文化、娱乐等领域提供帮助。
三是生成式人工智能(GAI)成为行业发展的重要方向。生成式人工智能是指一种基于机器学习技术和深度学习模型的人工智能系统,可以通过分析大量的数据集学习并生成新的数据或者文本、音频、图像等内容。目前,生成式人工智能在文字创作、图像及音乐生成、艺术设计以及医疗保健等领域具有巨大的发展潜力。2022 年,研究机构增长市场报告(Growth Market Reports)的《全球人工智能写作辅助软件市场》(AI Writing Assistant Software Market)报告预测,到 2028 年,全球人工智能写作辅助软件的市场价值将达到 10.223 亿美元。此外,根据研究机构调研与市场(Research And Markets)2022 年报告《全球人工智能在医疗市场的应用》(Global Artificial Intelligence in Medical Market)的预测,到 2029 年,医学领域的人工智能市场规模将达到 1468 亿美元。伴随技术的不断进步,生成式人工智能的应用范围仍将进一步扩大。
人工智能技术的新发展在深刻影响产业结构的同时,也不断重塑国家的政治安全生态。在人工智能技术与国家政治安全紧密联系、大国科技竞争日益激烈的今天,国家政治安全面临新局面,主要体现在以下两个方面。
一是人工智能发展进一步拓展国家政治安全内涵。政治安全是一个由复合要素构成的历时性概念,其内涵随着时代发展而不断丰富。人工智能技术的广泛运用既加深传统政治安全与非传统政治安全问题的复杂性,又同时对二者产生重要影响。
一方面,人工智能在操作性层面为传统政治安全领域提供了新的技术手段,使传统政治安全议题向数字化、信息化趋势转型。例如,人工智能在军事领域的广泛运用极大地改变了战争形态,信息化战争模式将实现对机械化战争模式的扬弃。
另一方面,人工智能提供了非传统政治安全领域的新议题,开拓了非传统政治安全领域的新赛道。人工智能技术的运用则进一步拓展了网络主权的边界。人工智能算法革命的出现,以及主权边界向数字空间的延伸,改变了现实国家主权的表现形式,并将数据隐私安全、互联网空间管辖权、网络意识形态安全等要素统筹在新的国家政治安全的内涵之中。因此,国家政治安全内涵的扩展,要求国家围绕安全议题的调整并进行战略资源再分配。
二是人工智能发展进一步突显国家政治安全敏感性和脆弱性。敏感性意味着人工智能技术在与国家政治安全相互嵌套的同时,推动各国政治安全议题的相互嵌套,国家政治安全维护的自均衡模式正在向国家间政治安全维护的体系均衡模式转变。因此,人工智能时代的国家政治安全不仅是一项国内政治议题,还是一项国际政治议题。脆弱性则意味着人工智能时代的国家政治安全由于面临多重挑战而易受到威胁。
一方面,人工智能技术带来的敏感性为“数字霸权主义”谋取霸权利益,干涉他国主权和内政创造了“便利条件”。
另一方面,人工智能技术塑造的政治安全新议题颠覆了国家力量维护政治安全的传统路径。在国家政治安全新赛道上,国家能够借鉴的历史经验甚少,因此,人工智能时代的国家政治安全决策将面临更多不确定性因素。同时,新的政治安全议题的出现使国家权力的运用呈现“流散”状态,降低了国家权力的使用效率,使国家政治安全面临新的挑战。
二、人工智能技术发展给国家政治安全带来新挑战
人工智能技术的发展推动了算力、算法、数据和政治权力深度结合。在国家政治安全内涵不断拓展的今天,社会政治动员形态的重塑、社会认知路径的固化,以及国家间不平等技术依附关系的出现,深受人工智能技术使用失范的影响,并构成了对国家政治安全的新挑战。
一是重塑政治动员形式,影响社会秩序稳定。在人工智能技术的影响下,政治动员的组织形式和表现形式正在经历变革。一方面,人工智能技术提高了政治动员效率。传统的政治动员模式需要对社会成员输送动员信息并等待潜在动员对象对动员信息做出反馈,而人工智能技术则可以通过主动收集和分析社会成员的信息偏好快速锁定潜在动员对象,减少甄别时间,简化动员流程。另一方面,人工智能技术降低了政治动员的难度。人工智能技术依托互联网平台进行信息推送完成政治动员,打破了传统的“集会式”的政治动员模式,使动员行为无需在实体空间就能完成,在扩大政治动员辐射范围的同时,降低了政治动员行为的物质成本。
政治动员形式的重塑同样对社会秩序的稳定以及国家政治安全产生了负面影响。人工智能在推动政治动员走向去中心化的过程中在一定程度上削弱了国家对政治动员行为的监督能力,使政治动员在缺乏引导和监督的情况下可能发展为无序的政治抗争,破坏正常的政治参与路径。此外,人工智能可能放大无序政治动员产生的消极结果。人工智能算法可能加速虚假信息和煽动性信息的流通传播,诱导更加激进的政治动员行为和政治抗争行为,进而引发社会秩序的混乱。在 2021 年的美国“国会山事件”中,特朗普的支持者依托人工智能和大数据技术,通过 Twitter、YouTube 等社交软件推送功能寻找潜在动员对象,发布行动计划,在短时间内迅速实现政治动员,最终冲入国会大厦。该事件极大地冲击了美国的社会秩序,进一步加剧了美国社会的分裂。
二是固化社会认知路径,加剧政治极化趋势。人工智能在实现超越社会传统认知模式的同时又通过算法固化了现有的社会认知路径。首先,人工智能塑造了新的社会认同模式。依据血缘、民族、阶级和文化构建的社会认同,正在被依据立场、态度、观点建构的社会认同所取代。立场优先成为人工智能时代社会认知的重要特征。其次,人工智能加剧了认知行为的路径依赖。人工智能在提供信息服务的同时框定了知识结构的边界。知识结构决定了什么知识能够被发现和储存,也决定了何者通过何种手段向何种对象传输知识。在“信息茧房”状态下,社会认知行为对人工智能产生了极强的路径依赖。再次,人工智能影响了社会认知心理。人工智能算法,既可以根据用户的历史行为以及偏好推荐其希望看到的内容,又可以对其反感内容进行自动化过滤,强化用户自我肯定的认知心理。
社会认知路径的固化造成了政治观点的极端化,弱化了社会群体对差异性政治观点的理解能力、理解意愿和包容性。然而,政治极化在削弱社会凝聚力的同时,将导致国家政治制度运转机制失灵,降低国家政治权力使用的合法性和效力,促进极端主义政治势力抬头,危害国家制度体系的根基。近年来,美国两党政治对立日益加剧,双方在利用人工智能算法分析支持者偏好、调整竞选策略、巩固自身选举基本盘的同时选择性地忽视了反对者提出的合理诉求,从而加剧了美国社会的对立与冲突。
三是形成技术依附关系,降低风险防范能力。人工智能技术的发展进一步推动了实体产业分工的物理世界体系向数字世界体系转型。在传统的全球梯级产业分工布局中,虽然中心区域与边缘、半边缘区域存在不平等的生产关系,但是发展中国家仍能通过发挥比较优势以及承接转移产业获得收益。在数字世界体系中,人工智能领域的先发国家在资金投入、技术研发以及行业标准制定等方面存在巨大的先发优势,使过去共同但不平均的全球收益分配模式让位于数字时代“赢者通吃”的收益分配模式。
人工智能领域先发国家向边缘和半边缘区域单方向提供技术资源供给的同时,构建了后发国家对先发国家单方向的技术依附关系,从而降低了人工智能领域后发国家的政治安全风险防范能力。一方面,后发国家在人工智能技术的获取和使用方面存在不稳定性。基于技术优势,人工智能技术供应链的主动权牢牢掌握在先发国家手中。通过设置数据壁垒或采取技术封锁,中心区域可以直接干涉边缘和半边缘区域的政治经济发展进程,在技术援助过程中附加苛刻的条件,提高后发国家使用人工智能技术的政治经济成本。另一方面,在技术依附关系中,后发国家的信息数据安全面临严峻挑战。后发国家在采用他国人工智能技术时,不可避免地会向他国传递本国的相关信息,从而面临数据泄露的风险。此外,对他国人工智能技术形成依赖意味着潜在风险的共同承担,当人工智能系统遭受黑客攻击时,后发国家的信息数据安全也会间接受到威胁和影响。
三、应对人工智能带来的政治安全挑战
应对人工智能发展带来的政治安全新挑战,既要克服人工智能领域的技术问题,又要通过政治引领建构公平正义的人工智能治理体系。
一是构建人工智能时代的“社会安全阀”机制。社会安全阀理论由美国社会学家科刘易斯·科塞(Lewis Coser)提出。该理论强调负面情绪的现实表达是产生冲突的重要原因。“社会安全阀”能够转移和消解现实社会环境中累积的敌对、不满和怨恨情绪,从而保障社会系统的正常运行,维护既定的社会秩序。在政治观点表达主体呈现多元化趋势的今天,人工智能技术在建构“社会安全阀”机制的进程中扮演了十分重要的角色。互联网用户在参与社会议题讨论、表达政治态度的过程中形成了大量蕴涵舆情能量的数据集合。通过广泛搜集和整理社交媒体大数据,人工智能应用可以高效地把握社会民意和网络舆论动向。在此基础上,人工智能技术可以通过情感分析功能对社会舆情走向做出研判和预测,进而协助行政部门评估潜在的社会安全风险,做出正确的决策判断。因此,构建人工智能时代的“社会安全阀”机制,应当正确发挥算法的技术优势,为社会舆情表达提供制度化路径,对冲去中心化政治动员带来的消极影响,实现国家政治制度稳定和社会秩序的长治久安。
二是加强算法治理实现算法正义。人工智能时代“信息茧房”现象以及政治极化形成的重要原因,在于算法偏见和算法歧视,通过干预输出结果影响了政治参与者的思维认知。因此,保障人工智能造福人类社会,维护国家政治安全和公民权利平等实现的关键一步,在于通过加强算法治理推动算法正义的实现。通过加强算法治理实现算法正义离不开多主体在多层次上的共同努力。首先,加强算法治理需要进一步完善算法治理领域的法律规范体系,将人工智能算法纳入规则框架之中,明晰算法“可为”与“不可为”的法律边界,从而使算法治理行为有法可依。其次,加强算法治理需要在算法运行的各个阶段形成多元监督管理机制。在人工智能训练阶段,应对提供的数据进行甄别,避免偏见性数据成为人工智能学习资料。在算法执行阶段,应对人工智能算法的可解释性和公平性进行评估,防止算法黑箱现象的出现。在结果反馈阶段,则应对人工智能输出结果进行整体性评估,防止消极内容对国家政治安全和社会稳定造成不利影响。最后,加强算法治理离不开社会伦理道德教育和科学伦理道德教育的普及。只有在现实层面消除社会偏见的土壤,技术层面的算法歧视才能得到真正遏制。因此,社会关系调节和正确使用人工智能技术对算法正义的实现缺一不可。
三是提高人工智能领域的自主创新能力。提高人工智能领域的自主创新能力是信息化时代维护国家政治安全、培育经济发展新动能、提升国家综合竞争力的关键举措。提高人工智能领域自主创新能力,必须加强关键核心技术攻关,在优质数据生产、算法模型优化、算力设备升级等领域加大资金投入力度的同时,注重人工智能领域的人才引进和人才培养,建设一支规模大、结构合理、素质优良的创新人才队伍。只有在人工智能领域建构自己的技术标准话语权,争做新技术的领头人而不是追随者,才能突破“卡脖子”困境形成的人工智能技术依附关系,有效防范“数字霸权主义”带来的信息安全风险,切实维护国家的核心利益和政治安全。【本文系教育部国家人权教育与培训基地重大项目“中国人权话语国际传播机制的改进策略研究”(22JJD820045)的阶段性研究成果】
(本文刊登于《中国信息安全》杂志2023年第7期)
声明:本文来自中国信息安全,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。