本文刊发于《国际安全研究》2023年第4期,第82-106页,注释略。
被重塑的世界?
ChatGPT崛起下人工智能与国家安全新特征
黄日涵 姚浩龙
黄日涵,中央民族大学新闻与传播学院教授、华侨大学国际关系学院教授
姚浩龙,华侨大学国际关系学院硕士研究生
内容提要
ChatGPT作为人工智能发展新的里程碑,在语言表达、自我强化等方面表现突出,展现出生成式人工智能的广泛运用前景,在多领域引起广泛关注,以ChatGPT为代表的生成式人工智能将会可预期地改变国家安全态势。在意识形态安全层面,对生成式人工智能的恶意运用使渗透方式更加多元,渗透效能更加显著。在国际舆论层面,对生成式人工智能的大规模使用将进一步使舆论场复杂化。在国家实力发展层面,生成式人工智能将继续拉大国家实力差距,国内公共权力与权威进一步分散。在军事安全层面,生成式人工智能赋能战场信息收集和战场指挥,国家之间的认知战对抗能力重要性日益提升。在法律规范层面,当前生成式人工智能的责任主体不明晰,现有法律法规难以约束基于该技术开展的犯罪行为。在社会稳定方面,生成式人工智能冲击劳动力市场,重塑人才发展模式。面对新技术冲击下急剧变化的新安全态势,应建立更多元协同的创新和应用体系,在国际上共享发展成果,完善法律体系,推动该技术服务于国家利益发展与人类命运共同体的构建。
关键词
人工智能;国家安全;ChatGPT;生成式人工智能;技术革命
引 言
科技竞争愈发成为大国战略竞争中的重要一环。新兴国家的技术进步会影响国际关系中的权力分配,其创新活动可能会对主导国家产生外部性影响,因而任何国家在科技竞争中的突破都将有助于该国在激烈的国家竞争中占得优势。人工智能作为近年来前沿科技的代表之一,其发展态势对国际社会的影响逐渐凸显:无论是美国对中国开展的一系列科技战,还是美日韩等国围绕限制中国科技发展而建立的技术同盟,都展现出科学技术竞赛的特征。特别是2022年年底现象级应用ChatGPT的出现,再次彰显出科技竞争的紧迫性。作为由OpenAI公司推出的生成式人工智能(Generative AI),ChatGPT具备“强交互”“强理解”“强生成”等特点,人们可以通过与ChatGPT对话进行快速检索信息、撰写论文摘要和编写计算机应用程序等多种操作。这些相较过往人工智能出现的突破性能力,让人们看到了研发通用型人工智能(Artificial General Intelligence)的曙光。该类人工智能是具有普适性、自主性、创造性和学习能力的人工智能系统,有望成为推动人类社会进步的重要驱动力。微软董事长兼首席执行官萨蒂亚·纳德拉(Satya Nadella)惊叹,ChatGPT将是未来改变生产力和工作方式的杀手级应用。从国家安全治理来看,人工智能在认知域和物理域的应用的确能提升国家在安全领域的治理水平,但以ChatGPT为代表的基于大数据模型下快速发展的人工智能,短时间内大幅扩展了其在国家安全领域涉及内容和领域的宽度和深度,对此类人工智能的广泛使用将深度改变国家面临的安全态势。
近年来,国内外有关人工智能与国际关系发展的讨论逐渐增多,关注的具体议题逐步转向人工智能技术与国家权力之间关系等国际政治和国家安全方面的议题。从当前研究看,学者们围绕以ChatGPT为代表的人工智能开展政治类议题讨论主
要包括以下几种:一是人工智能技术发展与国家间权力变化间的关系。随着人工智能成为新一轮产业革命的核心力量,其被认为是未来创新范式的“技术基底”,人工智能研究成为各国争夺科技竞争权的抓手之一。因此,当前技术大国在人工智能研究方面的较量会导致国家间竞争态势愈发激烈,国家权力的组成发生变化并进一步打破原本稳定的权力均势结构,国家的战略行为发生改变,发达国家与发展中国家之间的差距将会逐步放大。二是人工智能与国家安全态势复杂化。部分研究认为,对人工智能的广泛运用会使国家面临的安全态势更加复杂, 人工智能在军事装备上的应用部分改变了战争形态,美西方国家发动地区性战争的意愿更加强烈。三是研究ChatGPT本身带来的影响。目前,学界关注重点在ChatGPT的出现对学术伦理带来的冲击与对社会发展的影响上,但是较少涉及ChatGPT对当前国家安全形势的影响。
上述研究主要从权力更迭、国际权力结构转变和大国竞争等角度,对于人工智能和国际关系发展之间的关系进行了比较全面的研究。但是当前研究聚焦于国家间权力相对发展与人工智能之间的关系,对以ChatGPT为代表的生成式人工智能发展对国家安全态势的影响研究相对较少。随着时代的发展和技术的进步,安全的内涵和权力的内涵都在发生变动,在非传统安全领域,权力体现在传统的技术层面以及国际制度和标准的博弈上,同时也反映在话语层面的主导权争夺上,其表现为技术性权力、制度性权力和话语性权力。尽管话语性权力相较其他两种权力不那么瞩目,但在某种意义上,只有国家在多个维度上的综合性权力提高了,国家在该领域内的权益才能得到保障。与以往任何一种技术进步不同的是,ChatGPT的话语权塑造依托于技术,表现为人机交互。即谁能通过设定算法,影响机器的内容输入和输出偏好,谁就掌握了话语性权力。相比以往任何一种权力博弈,这种博弈所造成的意识形态渗透和安全风险都更为隐性。对算法的设定和对内容偏好的设定将是生产话语性权力的决定性因素。以ChatGPT为代表的生成式人工智能的出现与发展,将进一步提高国家在话语性权力方面的博弈强度,亦将重新丰富和书写安全的内涵。
历史上每次技术革命在给经济社会带来巨大变化的同时,也给国家治理体系和治理能力带来新的挑战,提出新的要求。从维持国家权力与国家安全的角度出发,我们必须正视该技术带来的挑战与机遇。因此本文旨在解答以下问题:在各国有关人工智能领域主导权竞争愈发激烈的大背景下,ChatGPT和生成式人工智能与以往的人工智能有何不同?此类人工智能会对现有国家安全的特征带来什么改变?我们应通过什么方式应对现实安全挑战的变化?对以上问题的回答有助于我们正视新技术对国家安全带来的挑战,为维护国家安全秩序、把握安全局势发展提供参考。
一人工智能技术发展与ChatGPT崛起
ChatGPT及相关技术是人工智能快速发展技术路径上的最新数据点。要理解ChatGPT对当前社会发展和国际安全态势的影响,首先要理解ChatGPT的运行机理及其对人工智能技术组合应用带来的变革及影响。
(一)人工智能技术发展与ChatGPT的能力特征
有关人工智能的研究起源于1956年约翰·麦卡锡(John McCarthy)和马文·明斯基(Marvin Lee Minsky)等科学家对有关如何用机器模拟人的智能的探讨。探讨中提出的“人工智能”(Artificial Intelligence)概念,打开了人工智能学科研究的大门。在历经数次技术升级后,人工智能的技术发展与应用不断取得突破,其所依据的技术本质从1.0时代的“逻辑推理”,逐步转向2.0时代的“知识工程”与3.0时代的“机器学习”,人工智能能力快速提高,适用范围逐步扩大。在人工智能技术发展的第三次浪潮后,人工智能技术也跨越了产业化的门槛,逐步呈现出国际体系中系统性变量的特征。国家不断扩大人工智能技术在军事、经济等领域的应用范围与深度:无人机等智能武器与信息处理平台逐步改变了传统战争的面貌,人工智能对产业的赋能与革新大幅提高了生产与经济发展速率,被认为是新一轮科技革命的重要组成部分。早在2016年,已有分析者意识到人工智能技术的发展已经跨越了影响人类政治生活的门槛,未来将成为国际体系中的重要影响因素,人工智能技术和设备史无前例的重要性可能使该领域的政策成为国家政策中最关键的要素。美国深知人工智能在国防军事、产业革新等方面蕴含的重大动能,因而始终将领跑人工智能与护持美国霸权紧密联结,不断出台多项人工智能发展战略。人工智能技术的研发和应用主动权竞争成为大国科技竞争的重要组成部分。
科技公司也在继续加快探索人工智能技术发展路径的脚步。2017年,谷歌公司提出新的人工智能深度学习模型Transformer模型。研究人员把自注意力(Self-Attention)机制引入模型内部,提出能够提高模型并行效率和运行效果的多头注意力机制(Multi-head Attention),大幅度提高人工智能在面对大规模数据时的运算速率,使其具有良好的理解上下文关系的能力。此后,OpenAI公司基于Transformer模型开发出GPT(Generative Pre-Training)模型,将无监督预训练机制和有监督微调方式引入对模型的训练中,结合提示学习(Promote Learning)方式,使得人工智能具备了强大的自然语言理解能力。OpenAI公司基于GPT模型陆续开发数个版本。到GPT-3模型时,用以训练模型的参数规模已达1 750亿,实现了情景学习(In-context Learning),使得该模型可以通过少量的样本便产生高质量答案。ChatGPT便是OpenAI公司基于GPT-3.5模型推出的对话型人工智能。OpenAI公司的研究人员将基于人类反馈的强化学习方法(Reinforcement learning from human feedback)引入对ChatGPT的训练,由工程师在训练人工智能时提供对话数据,创建和使用强化学习的奖励模型(Reward Model),使用最近策略优化(Proximal Policy Optimization)来微调模型。人工智能则在训练学习过程中将生成的答案通过排名方式排序,并反馈到系统中开展新一轮训练,使其能够通过大量训练习得人类语言的表达方式和语法规则,从而能够模拟人类语言的生成过程。因此,ChatGPT可以较为自然地生成文本内容,被视为是新一代知识调用和处理工具。以上这些技术的组合,共同赋予了ChatGPT相较于传统人工智能更独特的能力。
第一,在语言表达方面,ChatGPT能够高效理解和解读人类语言,并相应地产出符合自然语言规律的回答,展现出极强的拟人化表达能力。据报道,ChatGPT能够生成令人印象深刻的、详细的、类似人类的书面文本。相较于以往人工智能在交互过程中的机械化、程序化表达,ChatGPT模型内置了科学化和人性化的人工智能语言系统,其出人意料的语言“理解”和表达能力,已经超过90%的人, 使得ChatGPT在运行过程中能够摆脱以往人工智能输出过程中缺少感情色彩的表达方式,并能根据对话内容进行基本的逻辑推演和情感色彩的判断,输出尽可能符合语境和语言特点的文本。这使得其在文本翻译等人机交互领域表现出广阔的使用前景。
第二,ChatGPT相较传统人工智能而言展现出超强的能力。ChatGPT向人们展现出基于深度学习的大语言模型的能力与潜力,即参数达到千亿级别的大规模模型,这能够打破传统的比例定律进而实现模型能力质的飞跃。ChatGPT目前已展示出文档翻译、数据代码编写等能力,最新的GPT-4模型更是展现出远超ChatGPT的高级推理能力,甚至可以在几分钟内基于手写需求产出功能性网站。这些能力使得ChatGPT作为辅助工具,可以大大提高学习与研究效率。同时,ChatGPT还具有极强的学习能力。以往人工智能较少拥有交互修正能力,其回答往往是依据数据“总结”出的某些“规律”,一旦接收到的信息不符合该规律,那其作出的回答就具有较大偏差。ChatGPT通过无监督预训练和人类反馈的自我强化学习,可以在与人类的话语互动中不断纠错,自主强化语言处理能力。尽管受限于训练资料库规模、训练资料未能及时更新等原因,ChatGPT有时会出现低级甚至是常识性错误,但其在接收到用户反馈后会及时进行修正并记录,在多次训练后显著提高输出结果的准确率,通过不断技术迭代,实现高智能化。当然,受限于训练数据及算法,ChatGPT有可能出现“一本正经地胡说八道”的情况。这就需要进一步强化算法能力与扩大人工智能训练的数据规模,以提高回答的准度与精度。
第三,ChatGPT的出现使得人们认识到生成式人工智能所具有的广阔应用前景。ChatGPT作为生成式人工智能,能够在许多应用中改善自然语言处理(Natural Language Processing)和自然语言理解能力(Natural Language Understanding),展现出多模态信息的生成能力。除语言问答外,ChatGPT已经为我们展示了包括语言翻译、文本摘要与生成在内的多种功能,这反映出生成式人工智能的突出优势,即能够基于训练数据生成新的内容而非对知识进行基本的逻辑排列。以往开发的人工智能主要是决策式人工智能,主要学习数据中的条件概率分布,根据数据进行分析判断。生成式人工智能则在此基础上实现突破,不仅能够与决策式人工智能发挥类似的预测功能,还能够基于大量数据进行深度学习、归纳及创造,在接收指令后能独立作出判断与生成对应内容。目前,生成式人工智能已被运用在包括超高清视频生成、远程医疗诊断、计算机代码生成等在内的多个领域,没有绘画基础的人甚至能借助人工智能创作绘画作品并获奖。生成式人工智能很可能将是未来人工智能的主要发展方向。可预见的是,随着生成式人工智能的训练成本下降和计算效率的提高,会有更多辅助性工具被用在药物和芯片设计等领域,研究人员可以通过此类人工智能的辅助优化产品设计布局,降低药物和材料发现的成本与时间消耗,以此大幅提升行业生产效率。
(二)ChatGPT激化科技企业竞争态势 引发社会多方位思考
ChatGPT的出现与火爆吸引了科技巨头继续加大对人工智能研究的投入,在该领域展开新一轮竞赛。在人工智能技术发展方面,OpenAI公司在推出基于GPT-3.5模型的ChatGPT后,继续推出综合实力更加强大的GPT-4模型。谷歌公司加速对类ChatGPT人工智能的训练,并推出大语言模型PaLM的最新版本和新工具MakerSuite,开发人员可以通过该工具对自身想法进行快速原型设计,实现即时工程、生成合成数据和调整自定义模型等功能。国内科技企业与高校也加紧步伐开发类ChatGPT人工智能,试图赶上这波浪潮。例如,百度公司迅速推出大模型“文心一言”对标ChatGPT等。
同时,ChatGPT拥有的超强能力给社会多个领域带来冲击。ChatGPT本质上是一个对话式人工智能,其产出结果方式主要是文本输出,因而对于某些基于文本交换进行信息交流的领域,ChatGPT将会对既有的互动与生产方式产生变革性冲击。例如,在教育领域,ChatGPT拥有的多模态应用、信息检索与结果产出能力将逐步变革现有教育体系,不仅作为“义肢”逐步缩小知识弱势者与他人的差距,还能够提高自适应学习系统的易用度与准确度,提升教学成果的完成度与创意感。而在公共管理领域,ChatGPT拥有的对文本等数据的快速处理能力使其能够帮助国家政府快速处理部分公共事项,并实现包含智能决策、智能管理、智能服务和智能监管在内的智能政务一体化发展。 但是,社会变革往往也伴随着相应风险。ChatGPT作为新型知识调用工具,其给学术界带来的伦理风险、知识剽窃行为也让人们在允许其介入学术研究这一问题上存在争议,有观点认为,“ChatGPT可能是文明的终结”,认为对ChatGPT的广泛依赖将会让人的思维失去批判性。因而如何界定类似人工智能在论文和实验中的角色,成为学术界将要面临的一大难题。
ChatGPT可能带来的安全风险引发社会的广泛担忧。埃隆·马斯克(Elon Musk)认为,“(以ChatGPT为代表的)人工智能具有巨大的前景与强大的能力,但随之而来的也是巨大的危险”。从国家安全层面看,ChatGPT和人工智能发展对国家安全带来的影响已被广泛关注。美国国家标准与技术研究院发布人工智能风险管理框架,旨在帮助研究者思考人工智能技术发展、衡量和监控人工智能风险及其潜在消极影响。意大利则曾以“个人隐私”泄露为由禁止ChatGPT在意大利境内的使用。 在社会层面,ChatGPT带来的震撼也使得人们对人工智能的突破性发展感到担忧。在日本,接近70%的受访者认为,国家应该对人工智能的发展进行更加严格的监管。由此可见,ChatGPT并不只对传统人工智能应用领域带来冲击性结果,其难以预料的功能和应用外溢也将给社会带来多方位影响。因此,围绕ChatGPT这项新兴应用对国家安全带来的影响展开讨论,不仅有助于对该项应用及背后技术机理的释疑,更有助于全面理解和正确看待生成式人工智能对未来社会的颠覆性影响。
二 ChatGPT影响下的国家安全新特征
高新技术的革新与突破给国家发展带来多重影响。从国际权力对比看,以人工智能技术为载体的新一轮科学技术革命正在加速重塑世界权力秩序。从社会经济发展的角度看,人工智能可以帮助国家建立更加可持续的、免于经济危机侵扰的增长模型。回顾过去数次技术革命的发展与演变,其往往会对国家安全态势产生重大甚至是颠覆性影响,国家安全学的“横切延伸性”特征与人工智能的广泛适应性特点天然契合,人工智能技术发展自然深度嵌入到国家安全各领域。在政治安全、经济安全和军事安全领域,人工智能将以系统性要素的身份创建广泛的新议题,并成为网络的中心节点;在安全内涵相对具体的网络安全、核安全与国土安全领域,人工智能则成为重要的赋能主体,塑造了网络的半中心区域。其余国家安全领域与人工智能的链接相对松散,构成议题网络的外围区域。因此,探究ChatGPT对国家安全态势带来的多重影响非常重要。
(一)信息场域进一步复杂化 助长部分国家操纵国际舆论的能力
西方发达国家在人工智能领域发展较为成熟,得以通过抢占先机和技术优势强化对国际舆论的掌控能力,更有利于它们基于价值为导向有针对性地操控舆论,建立信息茧房。快速发展的人工智能将会助长虚假信息的产生,制造虚假的共识表象并隐藏潜在的社会裂痕。长期以来,美国凭借二战后确立的科技霸权与国际话语权,通过对国际传播媒体的控制,持续输出反华舆论,以“债务威胁论”“经济侵略论”等观点输出中国的负面形象。在宣传策略上,西方媒体往往仅是截取符合西方利益诉求的政治议题、人权议题进行议程设置,对负面议题进行集中报道。一旦这种舆论获得主导地位,它就能通过话语的压制和创造功能为其价值取向披上“集体意志”的外衣。而以ChatGPT为代表的生成式人工智能在进行舆论战时具备极大优势:此类人工智能在进行有目的性的训练后能够持续不断地输出带有政治偏见与虚假信息的言论,并将其以图片、视频和网络言论等形式,通过各种舆论传播渠道输出到国际数据网络中,直接或间接干扰国际舆论,并且影响他国民众认知。基于此,掌握技术和数据优势的国家可将基于大数据模型发展而来的人工智能与各种网络机器人结合,制造新型“网络水军”,通过混合虚假信息和扭曲事实性信息批量化地炮制丑化他国形象的言论。这不仅直接影响公众舆论和抹黑他国国家形象,更有助于这些国家强化在国际舆论场的主导性与主动权。
在以ChatGPT为代表的生成式人工智能大规模应用后,舆论生态将进一步复杂化与浑浊化,网络信息的有效性与可信度将进一步降低。新媒体赋予了每个个体发声的权利。而ChatGPT等生成式人工智能的出现和应用降低了社会信息场域中不同个体的信息不对称状况,大幅提高了个体在舆论场中的发声频率和权重,舆论场中的信息熵将大幅提高,社会信息场和舆论场进一步呈现“多中心化”特征,政府在信息发布和舆论引导等方面的权威地位受到严峻挑战。随着生成式人工智能功能的快速发展,伪造视频等虚假信息的制造门槛将大幅降低,人工智能可以通过深度伪造来操纵选举、加剧社会分裂和降低社会对政府的信任。这些深度伪造内容的可信度随着人工智能的发展快速增强,甚至使原本准确的内容也会被认为是深度伪造后的产物,直接影响到政府的公信力和权威。近年来,社交媒体上流传的假消息已经引起诸多争议。例如,有关美国总统演讲的伪造视频在网上不断流传,引发人们对总统身体健康的担忧,有些视频甚至直接对战场舆论产生影响。在以ChatGPT为代表的基于通用大模型开发的生成式人工智能被广泛运用后,会有更多社会团体通过该技术制作视频、图表等信息,具有高度可信度的新闻与信息的生产权力不再集中在国家和主流媒体手中,信息传播主体变得更加多元,将会进一步提高网络信息的复杂度,加剧原本存在的网络社会撕裂态势,掌握技术的社会团体将与国家展开真相阐释权的争夺,难以辨别的虚假信息将进一步降低新闻媒体乃至政府的权威性与可信度。
此外,ChatGPT具备的“偏差放大”能力,会放大其训练数据中的偏见和刻板印象,使得已处于社会不利地位的群体进一步边缘化,已有使用者在使用ChatGPT时发现,其在回答某些有关黑人女性的问题时会刻意降低她们所作贡献的重要性,有时还会刻意贬低某些政治人物的形象。这是因为当前国际互联网数据中蕴含大量充满偏见的信息,刻板印象、偏见和歧视已在机器学习方法中得到广泛记录,研发机构受限于算法能力和成本难以完全净化此类信息。在国际网络数据管理方面具有垄断优势的国家可以通过插入恶意信息污染数据库等方式,人为制造人工智能的“信息茧房”,使得此类人工智能在训练过程中生成带有意识形态和认知偏见的思维构架,影响其输出结果,进而潜在地影响使用者的立场与认知。
(二)数据安全难以保障 意识形态渗透方式更加多元
随着基于大模型和大数据的人工智能的广泛运用,公民和国家重要数据外泄的风险骤然上升,安全风险由此陡增。当前,新一代的人工智能是以大数据为基础开展深度学习和运转的,人工智能在深度学习中对大量敏感数据的交互使用,不仅使人类隐私暴露在人工智能之下,也极大地削弱了政府对数据信息的监管能力,个人信息泄露引发的政治安全问题很大程度也已经超越了传统安全领域。从政府层面看,国家政府能够通过使用ChatGPT来快速提高信息收集和决策效率,但这就要求政府为ChatGPT“投喂”相关文件和数据,使其能作出更符合实际发展的决策,而这无疑加剧了国家数据被盗取的风险:一方面,ChatGPT的工作机制仍是一个“黑箱”,不能排除其在运作过程中会存储与传递相关数据的可能;另一方面,ChatGPT的功能使得其能够在短时间内通过自监督学习能力充分理解数据之间的关系。在2023年5月的功能更新中,OpenAI公司已经解禁了ChatGPT互联网连接能力上的限制,允许其通过特定的第三方软件作为跳板“知晓”最新的信息。尽管它仍然不能访问某些被“安全保护”的网站,但联网能力的解禁强化了ChatGPT拥有的数据深度检索与串联能力。ChatGPT及类似的生成式人工智能通过关键词提醒等方式进行具有针对性大范围的数据收集与联想,对某些事件或计划进行“画像”制作。例如,一国政府可以借助该技术有针对性地收集部分国家的港口运输、重要资源转移情况等,“管中窥豹”地动态感知他国国内状况,从而提前预警可能的战争行为,这将大幅降低政府行为的机密性和安全性。若无特定反制措施,科技弱国将对科技强国单方面透明,科技强国将始终持有策略和战略主动性,国家之间的权力结构将变得更加不平衡,形成国际权力领域的“马太效应”。
从用户信息交流层面看,用户与ChatGPT进行的对话不仅是人工智能自我强化学习的过程,更是用户个人信息泄漏的过程。当用户使用ChatGPT进行信息查询时,都能通过信息交流得知用户的言语特征、当下关注重点甚至身份。在网络化信息社会中,每个公民的思想状态、行为习惯和特点都能够通过对其公开言论、网络行为的实时监控等数据的收集与处理获得。而公众与ChatGPT的不断交流,实际上也给予了人工智能对群体用户画像展开深度分析的机会。语言模型不仅提供了生产出更低成本宣传的潜力,还可以通过针对特定群体来调整宣传质量,以提高宣传效能,因而可以成为国家间开展认知战的内容生成器与传播器,国家得以通过群体深度画像“对症下药”,基于目标群体更熟悉和更具好感的宣传模式开展意识形态的颠覆行动,实现颠覆活动从“无差别投送”向“精确且有差别”方向的转变,意识形态渗透活动效能与效率大幅提高。除对群体画像的刻画外,ChatGPT也赋予人类精准刻画精英画像的能力。当前,人工智能系统已能实现对作为博弈对手的他国政治精英个人形象的精准刻画。人工智能可以根据政治领导人在不同场合下对外演讲的材料,分析与把握领导人的性格特质,甚至能够基于语言材料预测政治领导人的语言特点,这使对领导人认知的针对性攻击将会变得更加难以防御。
(三)进一步加大国家间实力发展的不平衡 国内国际权力格局变动加剧
随着人工智能技术的深度发展,技术大国之间的原有竞争态势将会进一步激化。人工智能技术的变革会进一步巩固知识领域中技术先发国的权力,大国对权力的控制变得更加隐形且自然。当某一方的人工智能研究实现算法或算力的突破,其能将这种优势外溢到其他领域,赋能其他技术快速突破发展。而这种技术的跨领域应用会规制他者的研究思路,后来者会依赖这种研究路径,优势方因而能够掌握对通用大模型研究和应用领域的规则以及话语主导权与制定权。当前,人工智能效能的指数级发展态势,呈现出“一步快、步步快”特点,研究优势方很容易将算法和算力优势转化为对其他劣势方的碾压态势,获得大部分的发展成果,形成“赢者通吃”的局面, 此类技术进步最终在国家层面会制造赢家和输家。特别是当下正处于国际权力格局变动的关键时刻,技术变革带来的突破将会被竞争中的各方视为赢得竞赛的“钥匙”,这就造成不同国家或政治联盟必将在此领域展开更激烈、零和性的竞争。如今,七国集团已就建立“广岛人工智能进程”达成共识,试图“先发制人”抢夺人工智能适用价值观等方面的国际话语权。这意味着组建跨国数据联盟、算法联盟等组织可能会成为国家间展开科技竞争的重要方略,以大模型、大算法和大数据为核心的技术与数据保护主义将成为大国科技竞争的核心内容,科技封锁乃至科技冷战等国际对抗态势可能将成为国际竞争的新态势。
第一个特征是,科技发展不平衡将恶化国家间发展的“马太效应”,发展中国家在全球经济体系中的不利地位更加难以改变。资本主义世界经济以世界范围内的劳动分工为基础,不同行为体承担不同的经济角色。发展中国家参与世界经济体系的优势主要是相对低廉的劳动力成本和充足的天然资源供给,但在人工智能时代出现了边缘地区被永久边缘化的可能和倾向。尽管生成式人工智能能够大幅度提高工业生产与实验研发效率,但许多发展中国家缺乏为人工智能提供动力所需的数字基础设施、建立利用人工智能的新模型所需的创新环境以及充分利用其力量的技能,意味着这些国家只能继续被迫接受来自发达国家的产业转移。生成式人工智能对训练积累和基础设施的极高要求决定了该技术的研发和应用具有累积性特征,必须依赖长期投入才能够实现技术的深度研发,使得其他国家特别是芯片进出口受限国家难以实现“弯道超车”,加大了国家间人工智能产业发展的“贫富差距”。而人工智能技术对劳动力的替代进一步稀释了资本经济体系对劳动力的需求,人工智能产业的发展暂时也没有实现创造新的劳动岗位, 这使得发展中国家拥有的相对优势进一步被削弱,在世界经济体系中的相对位置进一步向边缘推移,技术和资本占据优势的国家能够据此构建新时代的“中心—外围”经济与科技发展结构,凭借其在人工智能技术发展上的优势不断强化在经济和技术研究领域的核心地位;而处于边缘结构的国家将陷入选择在与核心科技国家的交流学习中获得部分核心技术来推动国家产业结构的升级,或者继续维持承接发达国家转移产业的抉择中。前者意味着边缘国家将继续强化对中心国家的依赖,更加难以突破体系结构对其的剥削;后者则代表发展相对落后国家将错失对前沿技术研发和应用的浪潮,发展潜力将会被进一步缩减,最终导致国家之间发展“马太效应”的进一步扩大。
第二个特征是,非国家行为体权力进一步增强,政治权力呈现“多中心化”趋势。大数据、算法乃至人工智能,在给社会带来深刻变革的同时,也正在成为平台公司捕获权力的有效手段。生成式人工智能的学习迭代等核心技术主要掌握在谷歌和微软等科技巨头手中,此类拥有权将催生出一种类似“科技跨国共同体”的团体,科技企业的信息垄断给予其左右信息获取和诠释的权力。原本相对稳定的主权国家间的权力边界,特别是对公共产品的生产权力将由于新主体的加入而变得模糊不清甚至消失。ChatGPT等类似的生成式人工智能的更新迭代所依赖的数据训练和算法等主要都掌握在大型技术企业特别是互联网企业与科学家团体手中,政府很难插足,而生成式人工智能在多领域的广泛运用前景使得科技企业得以参与国家事务并分享部分权力,进而让这些企业存在干预甚至主导原本国家垄断权力事务的可能性:科技巨头通过长期投资、技术研发与成果转换,在很多社会领域担负起生产与提供公共产品的职能。因此在经济与社会管理等部分领域,民族国家掌控的传统政治权力会在一定程度上向资本权力让渡公共产品的供应权,政府的权力将会被进一步分化,技术权威与官僚权威之间的不同步可能会逐步销蚀国家政府的行为效果,国家权力可能会被科技企业“绑架”。
(四)生成式人工智能赋能战场武器 认知域战场成为重要博弈场域
搭载新型人工智能的技术装备将显著影响和改变目前的战场态势。人工智能被称为是在火药和原子弹发明之后的第三次战争革命,ChatGPT的高度可适配特征与强大的信息处理和输出能力使其在战场应用方面拥有广泛前景。美国中央情报局就在讨论如何运用ChatGPT及类似程序辅助开展情报收集和间谍等业务。在军事行动中大规模应用ChatGPT及类似人工智能将大幅提升军队能力。在战场目标识别和作战信息处理方面,ChatGPT能装载到无人机、军用器械上用以实时感知战场信息,搭载GPT-4模型的识别网络能够有效提升在复杂环境中对目标的识别精度,更能大幅度提高无人机的作战效能。ChatGPT还能高效串联不同战场信息感知系统,通过感知、汇总、处理及输出的方式打造情报共享终端,基于GPT模型构架的人工智能能够持续不断地过滤大量战场信息数据并标注其重要内容,提高人工信息处理和分析的效能,为指挥部门提供精确的信息数据和决策依据等。在战场指挥方面,生成式人工智能控制的作战指挥系统相较传统指挥系统的反应速率更快,决策水平更高,效能更加突出。面对日益纷杂的战场形态和指数级增长的战场信息,基于大数据技术和军队决策风格训练的生成式人工智能可以高效分析指挥人员的作战需求,通过大模型的处理和战斗模拟、兵棋推演等方式提供高精确度的危险评估和决策建议,帮助指挥者在威胁产生前发现并挫败威胁,大幅提高战场临时决策的水平。在后勤物流方面,ChatGPT搭配物联网和云计算等技术动态监测军事战略物资的使用和调配情况,通过对储存物资数量、保养情况等数据的分析提升仓库管理效能,实现需求与资源运输间的动态平衡,为后勤补给提供最佳方案。因此,ChatGPT应用于作战领域后将大幅提升军队的智能化信息获取和决策水平,军队作战能力与装备的智能化水平紧密挂钩,战场的信息收集和决策方式向“云端收集”“人工智能决策”方向转变。
ChatGPT的出现还将突出国家认知对抗能力的重要性,以生成式人工智能和大数据、大算法为理论基底开发的新型认知战、信息战武器可能会降低国家间的互信。北约认知战学说认为,胜利更多地根据占领心理文化而非地理制高点定义。而认知战高度依赖网络信息技术和社交媒体平台的加持。社交媒体平台与网络不仅给予每个个体获取即时信息和交流的能力,也成为敌对国家展开针对性攻击的重要平台。这种攻击可分为传递虚假战场信息、伪造领导人发言等认知攻击和摧毁他国信息传递系统、阻截与破译他国传递信息等信息攻击。在这些方面,生成式人工智能将成为认知战的强大工具:攻击信息在被生成式人工智能处理后,其隐蔽性和欺骗性将大幅提升,使得认知战逐步呈现“全时空、多角度、强互动”的特点。军队可训练生成式人工智能,不断加强在虚假信息的制作与投放方面的能力,通过扮演战场亲历者、受害者等形象向对方民众密集地展开多角度的信息轰炸和情绪煽动,通过与民众的不断互动交流持续灌输伪造事实,打造具有针对性的信息迷雾,进而在他国催生厌战反战情绪,威胁他国国内社会民意稳定,最终击垮对手的抵抗意志。同时,生成式人工智能针对敌方部队的信息接收系统展开不停歇的信息轰炸,影响敌方网络技术设施的正常运营,切断敌方部队的信息接收,降低敌方军队内部沟通效能。因此,生成式人工智能在认知战中的突出表现可能会让国家间舆论关系变得更加紧张。每个国家都在防御可能的虚假信息攻击,并倾向于将社会内部出现的舆论乱象归咎于他国特别是敌国的作为,各国间的战略互信基础将会进一步削弱。
(五)ChatGPT训练与运转冲击现有法律规定 犯罪门槛大幅降低
目前,有关ChatGPT的责任承担者不明晰,训练和使用过程中易侵犯他人权利。ChatGPT作为拥有超过千亿参数的超大模型,在运转时它并不能给其每个决策或输出结果一个清晰的逻辑推理过程和明确的资料来源,甚至其提供的“真实”资料来源也有可能附有真实的细节和虚假的引用。而一旦人们在使用生成式人工智能的这些输出结果时导致事故,却没有明确的主体能够承担这部分责任。考虑到此问题,美国最高法院曾就人工智能聊天机器人的主体责任问题展开讨论,有大法官就建议“保护社交网络免受用户内容诉讼的法律保护措施可能并不适用于人工智能生成的工作”。同时,ChatGPT训练所使用的大量数据使得个人信息被窃取盗用的情况难以避免,数据泄露风险大幅提高,现有法律体系很难限制相关行为。ChatGPT等生成式人工智能的能力源自对海量数据的抓取与学习,但这涉及抓取数据这一行为是否合规、抓取的数据是否会另作他用等问题,数据来源的合法性与有效性也难以验证,这深度关系到生成式人工智能能力来源的合法性。此外,ChatGPT的训练和运转方式损害了公众的知情同意机制,即科技企业不经个人同意而开展的数据抓取使得公众对个人数据隐私的保护难以落实,公民甚至都难以察觉个人隐私数据的泄露。支付信息、地址、打车记录甚至聊天记录都有可能因为程序设计缺陷和用户的广泛使用被他人轻易获取,信息隐私保障愈发困难。相关企业对训练数据的处理工序也不透明,个人信息和政府机密信息可能并没有被充分处理便直接用于训练,训练结束后相关数据也可能会被企业刻意保留,加大了数据泄露的可能性。
与此同时,对生成式人工智能的广泛使用将降低网络犯罪门槛,犯罪行为追踪难度加大。欧洲刑警组织认为,对于缺乏技术知识的潜在罪犯来说,ChatGPT是生成恶意代码的宝贵资源。ChatGPT作为对话式人工智能,它可以基于用户要求快速产出所需类型的代码和生成程序,这为犯罪分子提供了天然犯罪工具。尽管当前各家公司都宣称为旗下的人工智能产品设置了拒绝不适当请求的程序,但当前程序尚不具备深度识别需求背后意图的能力,仍有使用者发现在使用过程中能够“欺骗”程序来达到目的。同时,生成式人工智能已具备批量文案编辑、伪造图片和视频的能力,犯罪分子结合这些能力开展的电信诈骗等活动更加符合文化与社会特征,更具“真实性”与“有效性”。犯罪分子得以利用信息差营造更符合逻辑的骗局,对缺少信息辨别能力的人“降维打击”,犯罪频率与成功率都将大幅上升。
(六)ChatGPT带来结构性失业现象 影响劳动力市场及社会稳定
就业风险治理作为国家安全治理事业的重要组成部分,内嵌于国家发展的实践体系中。此次以人工智能为代表的技术革命可能将带来多类型的失业现象,ChatGPT及其他生成式人工智能将永久性地取代某些行业的部分岗位,对社会发展带来群体性和长期性失业风险。ChatGPT作为全新生产力工具,必然对当前人们的工作方式和劳动力市场的供需平衡产生剧烈冲击。公司可通过ChatGPT等生成式人工智能对信息进行快速获得和提取,例如,基于GPT-3模型产生的OpenAI Codex精通十几种编程语言,通过“背代码”方式以提高程序员工作效率。生成式人工智能还大幅提高了劳动力的生产效率与创造力,低技能工人则能通过使用ChatGPT等工具缩小他们与高技能工人之间工作质量的差距。
但是,工作效率的大幅提高也意味着既有工作所需劳动力将减少,体力劳动者及部分简单脑力劳动者需求量将大幅度下降,部分重复性劳动和创造性工作存在被生成式人工智能替代的可能。从经济发展的角度看,颠覆性和突破性的技术发展与应用都会影响既有的经济形态和经济分配关系,重塑当前就业和社会经济的格局,对原有的技术人群产生破坏性的替代效应。OpenAI公司2023年3月发布的报告显示,大约80%的美国劳动力会有部分工作任务受到GPT模型和相关技术带来的冲击。而高盛公司发布的报告则表明,美国和欧洲目前约有2/3的工作“在某种程度上受到人工智能自动化的影响”,并且多达1/4的工作可以完全由人工智能完成。 不同于以往人工智能对低端制造业岗位的替代,生成式人工智能可胜任的岗位更多集中在拥有类似运作规则和运转步骤,需要频繁处理大量相似数据的岗位,这些行为都能轻易通过生成式人工智能完成。如只需将基本新闻文案规则与信息抓取程序输入到生成式人工智能中,它就能自动地抓取新闻数据“填写”到文稿中,大幅节省新闻撰写所需的时间。因此,ChatGPT等生成式人工智能在这些领域的广泛使用将在降低企业运营成本的同时提高运营效率,该领域的生产主体从人类转向人工智能,部分脑力劳动者将会因此失去就业机会。同时我们还应注意到,当前的ChatGPT是生成式人工智能发展的一个里程碑,而绝非发展的结束。未来生成式人工智能可能将作为其他人工智能技术或者工业技术的“操纵台”和“核心大脑”,除了部分需要创新性思维或者主观应变能力的岗位外,将有更多领域被以生成式人工智能为核心的生产主体介入和主导,不可预期的劳动力失业潮将汹涌而至。
ChatGPT对国家安全的相关影响整理如图2所示。
三新安全形势下的应对策略
ChatGPT的出现对于国家安全造成了前所未有的挑战。在国内层面,ChatGPT冲击既有法律规范和伦理道德,影响劳动力市场,影响意识形态稳定。在国际层面,该技术将影响国际社会的科技竞赛态势以及冲击国际权力格局。毋庸讳言,这些挑战可以说是巨大的甚至是颠覆性的。因此,我们必须未雨绸缪,提前做好相应准备,在创新体系建设中加强国际合作,在完善法律法规等领域下足功夫,为在ChatGPT时代维护中国国家安全夯实基础。
(一)对内加快构建开放协同多元的人工智能创新体系
首先,可以建立包括人工智能发展委员会在内的决策机构,解决在人工智能领域“九龙治水”的局面,通过科学技术部、大数据管理局等官方部门统筹技术型企业发展步伐,推动中国通用大模型研发与创新能力的提高。现有科技企业发展更多是围绕市场竞争进行技术研发和应用,对应用层面的投入远超对基础理论研究投入,自我内耗的竞争形势阻碍了技术创新和应用能力的提高。因此,从加快基础理论发展和重大技术应用突破的角度入手,必须革新现有企业和高校的技术研发和应用路径,基于通用大模型研发中的多元互联特征,充分实现研发和应用链中各主体、各层次之间的互动协同,以提高通用大模型研发体系的原始创新能力,重点攻关通用大模型发展的痛点难点,加快追赶国际先进水平的步伐。
从横向研发角度看,政府须强化对基础性研究特别是模型数据训练方面的支持力度,通过税收补贴等优惠政策鼓励企业围绕基础理论研究进行孵化性投入。科技企业、高校和政府等主体发挥互补性作用:企业间可以整合数据资源,构建共享的开源数据库与算力引擎,通过平均科研成本降低准入门槛,为科技创新企业的大模型训练提供便利,构建“政府兜底、多方共担、企业验证”的技术研发模式。而针对现有大模型发展的难点,企业与高校设立重点联合研究团队,通过长期研究探寻不同解决路径的可行性,借助科技企业的转化能力快速验证技术路径,以突破大模型发展阻碍。从纵向应用角度看,产业链上下游应以社会实际应用需求为导向,充分发挥通用大模型的多模态应用能力,基于大模型能力创新应用方案,通过调研和互动反馈等方式快速实现应用能力的良性迭代与升级。政府通过向专家学者征集意见,围绕重点应用场景设立技术转换的“试验田”,不断放权企业展开应用的大规模实验,创新生成式人工智能的运用实践,实现生成式人工智能技术与社会现实发展需求的结合,加快推进生成式人工智能在多领域的创新应用。
其次,逐步改革人才培养模式与输送体系,建设高校、研究所、企业三体联动的高新技术人才培育联盟,为生成式人工智能的研发提供更多智力支撑。人才是第一资源,技术创新体系的运转不能缺乏人才支撑。随着ChatGPT的爆火,对研究通用大模型训练和应用的人才需求激增,但当前中国在研发通用大模型方面仍然存在较大的研究型人才缺口,相关人才的缺口接近3 000万。因此,为推动生成式人工智能的快速发展,就必须加快国内人才的培育速率。
以高校为主导的教育体系应当逐步扩大人工智能研发专业规模,细分专业研究方向,增加通用大模型训练的培育和转化应用类课程,提高在校学生在人工智能方面的基本素养。在高素质人才输送层面,高校可与企业和研究所直接对接,通过设立联合实习机制,定期推送高素质人才到既有人工智能研发和应用体系。
政府和企业应加大对相关人才的支持力度,形成对相关领域顶尖人才的吸引力,选择性地引入部分优秀科学家团队,直接提升国家在此方面的创新与研究能力。例如,政府可将通用大模型训练数据的净化与模型应用等方面的人才纳入既有海外高层次人才引进计划需求中,通过设立准入标准和待遇分级,持续性挖掘与吸引海外优质人才回国发展。客观来说,国内外在大模型等技术方面的差距仍然较大,对海外人才的吸引应成为当前快速提高研发能力的重要途径。为此,我们应当打破思想禁锢,以更加开放包容的心态引进人才,为中国人工智能发展筑牢坚实的人才基础。
(二)对外共享人工智能技术发展成果 破除技术霸权状况
生成式人工智能作为新的科技奇点,能有效赋能不同产业,进行产业革新,大幅提高生产效率,理应成为实现人类命运共同体的有力帮手。但人工智能创造的大多数价值并没有为大多数国家真正享受,反而成为技术霸权国家扩大垄断性优势的新工具。当前,大模型发展的主力军仍是科技龙头企业,各研发主体在国际社会层面上尚且没有达成一致的有关通用大模型发展的技术标准与使用规则。目前,中国在人工智能发展方面具备了一定的影响力,有能力团结其他国家一同改变人工智能研发的“高地”与“低谷”状态。因此,新形势下的中国应继续坚持人类命运共同体理念,在国际社会范围内实现技术和成果共享,以减缓世界范围内的技术两极分化态势,通过技术共享,争取更多的发展中国家朋友,打破美国的“技术民主联盟”。
中国应在国际上积极探索与商讨有关通用大模型发展的国际规则和标准,主动追求新技术领域中的规则制定权与技术主导权,这就要求中国开展多方面行动。在数据联通方面,中国可牵头建立通用大模型研发合作组织等区域组织,在与他国建立更深度战略互信的基础上,围绕数据与技术交换和交流展开合作,通过签署数据共享协议以构建更庞大、覆盖多国社会数据的数据库,由各国共同成立专家团队管理数据库,在保证数据安全的同时为通用大模型能力的训练和强化提供坚实支撑,有效拓宽模型应用的适用范围和使用深度。在应用共享方面,中国可与各国因地制宜的开发通用大模型应用,针对不同国家使用需求,如灾难预警、社会服务管理等方面,通过资源交换、成立合资企业等方式,由政府担保、龙头企业提供技术支撑和维护,与不同国家合作开发通用大模型应用和建设数字信息硬件设施,实现生成式人工智能成果的直接共享。在持续性发展方面,中国可通过派遣科研团队、远程指导和互访学习等方式帮助他国训练所需信息人才,搭建基础信息人才培育体系。这些做法不仅能有效共享人工智能发展成果,“圆梦”他国的信息化智能化发展目标,更能有效提升中国在国际数字信息标准、应用开发路径等方面的影响力。此外,中国可通过在人工智能会议与国际组织中进行议程设定和讨论数据处理标准等方式,规制通用大模型的应用场景与能力,统筹协调各国在全球人工智能治理方面的脚步,为引导通用大模型向好向善发展作出积极贡献。
(三)创新现有国内治理工具 完善人工智能领域法律法规政策
网络技术本身具有中立性,我们不仅要看到以ChatGPT为代表兴起的新兴技术对当前国际安全秩序的冲击,也要意识到这是创新安全治理工具的重要契机,新型网络技术带来的新安全问题也应通过开发相应治理工具予以应对。随着生成式人工智能能力的快速提高,既有安全检测与处理工具难以处理其带来的威胁。例如,面对伪造视频和仿真化的数据攻击,传统信息检测工具难以识别真伪,只有遵循相同技术基底的监管工具才能做出检测与管理。这也要求企业承担起以人工智能信息审核技术规制人工智能可能诱发的虚假信息泛滥和犯罪诈骗频现的责任。
同时,生成式人工智能能够革新既有治理工具。基于该技术,企业和政府能够联合开发自然灾难预警工具等需要数据收集和处理的高度自动化工具,提高社会对传统治理问题的预警和应对处理能力。生成式人工智能也在社会服务等领域发挥辅助作用。因此,综合运用和开发“生成式人工智能+X”类服务将有助于推动智慧政府和友好社会的建立,这是打造万物互联、智能社会的关键一步。
此外,还应当完善法律法规体系,规制生成式人工智能发展与应用路径。首先,法律应围绕生成式人工智能生成内容的著作权、内容来源的正当性建立合理的法律规章体系,为生成式人工智能创造内容提供基本法律支持,避免因违反知识产权保护等条例使得生成式人工智能的训练与发展受到阻碍,以此鼓励和规制科技企业的规模化生产与多领域应用,实现生成式人工智能成果安稳落地。科技企业对大数据的滥用本身就干涉了个人信息的隐私权和知情权,但过分限制则会阻挠科技企业对大数据模型的研发与训练。因此,必须出台法律法规,对通用大模型训练使用的数据明确界限,在维护模型训练和信息隐私之间找寻平衡。例如,以公文型生成式人工智能为例,政府应与企业就训练文本的数据类型和规模进行磋商,“投喂”给人工智能对应的内容,避免造成对部分未授权和隐私数据的侵入。
其次,政府与企业应对人工智能产业实行有效且责任明晰的监管,落实人工智能技术安全标准。企业在训练和使用生成式人工智能时必须建立标准化生产体系,对生成式人工智能的训练数据和相关反馈及时与政府进行协商备案,注重对高质量训练数据的合作与开发,从源头上保证生成式人工智能能力的可靠性。政府应设立人工智能生成内容审查组,定期审核和审查生成式人工智能的运转与使用情况,并以此作为打分基础与开发公司的信用评级及税收优待等相联系,倒逼企业重视开发和训练人工智能过程中的安全标准,确保生成式人工智能在训练过程中不会将歧视性和偏见价值观纳入输出框架中。企业也应创建合规性设计计划,促进人工智能创新并确保系统的透明度和可解释性。
最后,法律应当明确生成式人工智能的责任主体,并据此完善法律担责体系。透明度和可问责特征是生成式人工智能开发和部署的关键性问题,因为这是确保该技术值得信赖与维持公平和安全的关键。如果一项技术或应用缺少主体承担责任,那么使用该技术作为犯罪工具的犯罪分子极易逃脱相关责任,这实际上是鼓励社会主体对其的滥用。因此,在未来法律制定中应当关注生成式人工智能设计者、使用者和维护者三方的责任分担,以法律法规形式明晰不同主体的权利和责任边界,建立相应的责任追踪机制,统一责任划分标准,确立合理并基于现实情况的归责原则,将事故责任合理分配给人或者“实际行动方”,联合网络信息安全部门共同打击新型网络犯罪。同时,法律也要对生成式人工智能的生产者与维护者提出更高要求,从根源上降低生成式人工智能被用以犯罪的可能性。
结 语
以ChatGPT为代表的生成式人工智能可预期改变国家面临的安全态势,但同时也为国家发展带来新的机遇。中共二十大报告指出,“推动战略性新兴产业融合集群发展,构建新一代信息技术、人工智能、生物技术、新能源、新材料、高端装备、绿色环保等一批新的增长引擎”。这要求我们多角度看待该技术突破对国家发展态势的影响,认识到以ChatGPT为代表的生成式人工智能将作为新一代的“互联平台”,成为继互联网之后又一个深度联结不同发展领域的工具,并加速中国建立智联社会、信息强国的进程。
ChatGPT的出现并不是该类型人工智能发展的终点,而是人工智能发展和应用模式研究的“奇点”之一,我们需要充分关注到其身上的充足发展潜力。随着类似的人工智能技术不断注入数字应用的开发和架构当中,我们日常工作使用的软件和设备将变得更加智能化与拟人化,虚拟助手、虚拟医生等事物将发展出更全面、更具创新性的功能,并将突破现有人类所具有的部分物理局限,呈现出“服务全天候、操纵高精度、工作多线程”等特点,并可预期地实现科学技术研发和社会服务效能的大幅提高。未来,随着训练规模增大与算法更新,此种类型的人工智能将展现出更加全面与强大的功能,接入端口更加丰富,应用领域更加多元,不断革新社会既有知识传递网络和信息获取途径,并从实质上成为数字时代人类的“外接大脑”,实现生产效率的飞跃。
但是,ChatGPT等生成式人工智能的发展也意味着人工智能将对国家安全态势带来前所未见的复杂挑战,这就要求我们必须及时正视类似人工智能的角色和在社会发展中的地位,才能在未来的高科技竞争中有备无患。
【收稿日期:2023-05-04】
【修回日期:2023-06-10】
【责任编辑:谢 磊】
编辑 | 蒋雨灿
声明:本文来自国际安全研究ISS,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。