2023年9月,经合组织发布《生成式人工智能的初步政策考虑》报告,介绍了当前生成式人工智能的发展情况,讨论了政策制定者应关注的问题和未来发展趋势。其中,政策制定者应关注的问题包括:生成式人工智能正迅速被关键行业采用,并可能加剧偏见和歧视,引发知识产权问题,给劳动力市场带来影响。未来发展趋势包括:人工智能大语言和图像生成式模型将不断发展,关键领域生成式人工智能市场将继续快速增长,生成式人工智能将加剧风险并带来新风险。

一、生成式人工智能的发展现状

1. 生成式人工智能的迅猛发展引发广泛关注

生成式人工智能可以根据训练数据创造全新内容。例如,ChatGPT和BARD可以生成文本,Midjourney和StableDiffusion可以生成图像,WaveNet和DeepVoice可以生成音频,Make-A-Video和Synthesia可以生成视频,还有一些多模型系统可以产生多种类型的内容。为应对这种快速发展,很多企业纷纷新增“提示词工程师”(prompt engineers)岗位,风险投资者也大量投资于生成式人工智能领域,政府也在考虑出台相应的监管工具来规范其发展。

2. 各国政府认识到生成式人工智能所带来的变革,正采取相关行动

虽然生成式人工智能已经开始以许多积极的方式彻底改变各个行业和社会,但也有可能以虚假信息、深度伪造和其他操纵内容的方式被滥用,带来严重的负面影响。在此背景下,各国政府正在采取行动来跟上变革的步伐。2023年5月,七国集团承诺推进人工智能治理的国际讨论,以实现包容性和可信赖的人工智能,并与经合组织合作创建了“广岛人工智能进程”倡议框架,以帮助改善生成式人工智能的治理。

3. 仅有少数跨国企业能够创建大型生成式人工智能系统和模型

迄今,全球范围内只有少数企业拥有能够创建大型生成式人工智能系统和模型的技术、技能和资金。这些模型能执行一系列通用任务,并为开发多种目的的应用程序提供基础。一段时间以来,少数跨国企业一直在投资人工智能,以实现其商业模式。这些企业通过将生成式人工智能嵌入到云平台的“软件即服务”系统,或者直接安放在设备上,获得生成式人工智能创造的大量初始价值。

4. 开源参与者、研究人员、初创企业和中小企业在生成人工智能领域也非常活跃

人工智能传统上依赖专有、免费和开源软件模型、库、数据集和其他资源。尽管许多企业将生成人工智能系统商业化,但也有几家企业正在开发开源模型。开源模型有助于技术的快速创新和发展,并缓解少数企业抢占大部分市场的“赢者通吃”现象。然而,当不良行为者可以利用开源的生成式人工智能模型时,也会带来其他风险。

5. 生成式人工智能根植于已有模型,需要大量数据

尽管生成式人工智能系统看起来很新颖,但其模型设计基于深度神经网络。这种网络模仿人脑神经元的信息处理方式,通过数据训练和构建模型来模拟人类智能,用于处理以前“看不见”的数据。而与人类智能不同的是,人类可从少数例子中学习,而机器学习需要大量数据。

6. 生成式人工智能可以创造出新颖内容

生成式人工智能模型根据用户请求来生成合成文本、图像、音频和视频,这些文本、图像和视频很难与人类创造的内容区分。自2017年谷歌发布Transformers架构以来,支持文本生成的大语言模型的质量迅速提高。ChatGPT的发布引起巨大反响,其月活跃用户约为1亿,成为历史上增长最快的消费类软件应用程序。

7. 自主生成式智能体既会带来巨大利益也会带来巨大风险

生成式人工智能系统越来越多被用作自主智能体。2023年初,OpenAI发布了一个连接ChatGPT与第三方应用程序的插件,这使得模型能够利用第三方数据提供更准确、及时的结果和服务。智能体不仅限于根据人工指令和提示进行操作,还会产生自主行为。大模型的自主智能体具有明显的优势,应用范围可以进一步扩展,但其发展仍然存在许多未知因素和风险,例如它们可以制造和传播错误和虚假信息,甚至可以模仿人类。

二、政策制定者应关注的问题

1. 生成式人工智能正迅速被关键行业采用

生成式人工智能预计将创造重大的经济价值和社会福祉。企业已经开始采用这项技术来创造新的商业机会,初创企业也在争夺风险投资。目前,流行的用例和应用程序包括数据预处理、图像压缩和分类、医学成像、个性化和直观的用户体验界面。在代码开发、创意产业和艺术、医疗保健、教育、检索领域已经有一些生成式人工智能应用程序开始盈利。

2. 生成式人工智能可能加剧偏见和歧视

生成式人工智能模型可能吸收训练数据中存在的社会偏见、刻板印象和歧视,并可能进一步边缘化或排斥特定群体。评估训练数据、管理数据集和应用审查流程是缓解偏见的基本措施。研究实验室在推广模型时会采取更加有力的措施。一种措施是红队测试(red teaming),以攻击者的角度来探索模型的缺陷和漏洞。另一种措施是利用数据清洗过滤特定内容,并通过人类反馈强化学习(RLHF)算法进行反复微调。

3. 生成式人工智能会引发知识产权问题

生成式人工智能建模是在大量数据上进行的训练,其中包括未经所有者授权的受版权保护的数据。使用这些数据是符合合理使用原则还是侵犯版权尚存在争议。生成式人工智能能够创造新的图像、文本和音频。这些产品是否可以获得版权保护或申请专利还在讨论中,大多数国家和地区都认为人工智能自主生成的作品不具有版权。

4. 生成式人工智能会给劳动力市场带来影响

截至目前,人工智能主要影响的是工作质量,而不是数量。但有迹象表明,劳动力市场可能很快面临一场巨大调整,人工智能会取代一些人类劳动,同时创造新的工作岗位,特别是人力具有相对优势的岗位。经合组织研究发现,生成式人工智能技术可能使32.8%的工作岗位受到影响。必须密切监测生成式人工智能的长期发展及其对劳动力市场的影响,在获取利益的同时解决工人权利和福祉问题。

三、生成式人工智能的未来发展

1. 人工智能大语言和图像生成式模型将不断发展

生成式人工智能模型的发展将呈现以下几种趋势:一是模型规模不断扩大,参数数量增加,学习次数相对减少;二是利用高质量的数据训练较小模型;三是图像生成模型创建的图像质量更加引人注目。短期内,这可能会为基于生成式人工智能技术的应用程序和采用这些技术的行业带来越来越大的影响。

2. 关键领域生成式人工智能市场将继续快速增长

目前,生成式人工智能还处于发展的初级阶段,需要大量的研发投资和人力投入才能步入成熟阶段。未来生成式人工智能的应用范围有望进一步扩展到音频合成、数据预处理、图像压缩、视觉数据降噪、芯片和零部件设计、材料科学、医学成像、图像分类以及娱乐等领域,尤其在医疗保健行业的发展前景十分广阔。根据高盛、麦肯锡等投资银行、咨询企业的报告,未来几年生成式人工智能将对全球经济产生重大影响。

3. 生成式人工智能会加剧风险并带来新风险

生成式人工智能将加剧现有风险,包括:对劳动力市场的影响、信息污染、自动化网络安全攻击、大规模监控和审查、对生成式人工智能系统的过度依赖、版权问题、学术和创意剽窃、资源集中、不平等问题、数据质量监管、生成错误和虚假信息、大量能源消耗等。此外,生成式人工智能的模型行为会带来新风险。例如,日益增加的智能体一方面会通过社交媒体推荐等方式产生破坏性、持久、难以修复的伤害,另一方面会随着模型能力增加,剥夺人类权利。

生成式人工智能的未来风险需要更系统的解决方案,涉及监管、伦理框架、人工智能技术标准化、审计、模型发布和访问策略等。经合组织人工智能政策观察站及其新成立的人工智能未来专家组将与其他相关机构一起,就这些主题进行对话,为各国政府提供见解和可行的建议。

编译:中国科学院文献情报中心 王辉 青秀玲 董瑜

审校:中国科学技术信息研究所 张丽娟

来源:《科技参考》2023年第64期

声明:本文来自科情智库,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。