生成式人工智能(AIGC)核心是能够自动生成多样化的高质量内容,包括但不限于文本、图像、音频和视频。生成式人工智能的应用领域极为广泛,从艺术和创意产业的个性化设计和音乐创作,到内容创作领域的新闻报道和社交媒体内容生成,再到医疗保健领域的合成医学图像和个性化治疗方案制定,甚至是制造业和金融业。这些应用不仅极大地丰富了内容的多样性,提高了生产率,还为个人和组织创造了前所未有的商机和社会价值,这一尖端技术正在以前所未有的速度改变着我们的生活和工作方式。

英国学者戴维·科林格里奇(David Collingridge)提出的 "科林格里奇困境"(Collingridge Dilemma)指的是,在新技术的早期阶段,我们往往难以预见其长期的社会影响,而当这些影响显现出来时,技术往往已经深入社会结构,难以控制。就生成式人工智能而言,这种困境意味着,在技术发展的早期阶段,我们很难全面评估它可能带来的风险,如数据隐私泄露、算法偏差和对内容真实性的挑战。然而,一旦这些问题变得显而易见,生成式人工智能已经得到广泛应用,纠正或调整这些问题将变得异常困难。因此,科林格里奇困境对于治理生成式人工智能的意义在于,提醒我们需要在技术开发的早期阶段进行前瞻性评估和控制,以避免技术失控带来的负面影响。这就要求我们在生成式人工智能技术发展之初就纳入伦理考量和价值导向,以确保技术既能促进社会进步,又能保证安全和可控。

一、科林格里奇困境在生成式人工智能治理中的体现

生成式人工智能技术的飞速发展不仅改变了我们与数字世界的交互方式,也深刻影响了社会的各个层面。自2022年OpenAI发布革命性的生成式人工智能模型ChatGPT以来,该技术迅速成为科技界的新宠。短短两个月,ChatGPT 的活跃用户数量就突破了一亿大关,其惊人的深度学习能力和快速迭代速度让人们见证了人工智能的巨大潜力。随着 ChatGPT 功能的不断扩展和完善,更多基于其技术的衍生应用如雨后春笋般涌现,并在多个领域占据越来越重要的地位。生成式人工智能发展势头迅猛,逐渐渗透到各行各业,成为推动经济和社会变革的重要力量。

然而,伴随着技术的快速发展,一系列挑战也随之而来。人工智能技术不仅带来了生产力的飞跃,也引发了政治、经济、法律等领域的深刻变革。这些变化既有积极的一面,如提高效率、增强创新等,也有潜在的风险和挑战,如数据隐私泄露、算法偏见、内容真实性质疑等。此外,生成式人工智能技术的应用还可能触及更广泛的伦理和社会问题,如工作机会的变化、个人身份的识别、人类价值观的重塑等。

在这方面,科林格里奇困境描述了技术发展过程中的一个矛盾现象:在技术发展的早期阶段,尽管我们对技术未来的影响知之甚少,但此时对技术进行干预和引导的能力较强;然而,当技术的不良后果开始显现时,技术已经嵌入经济和社会结构,想要对其进行有效控制变得异常困难。就生成式人工智能而言,科林格里奇困境意味着我们需要在技术尚未完全成熟时就预见到可能出现的问题,并在早期阶段采取措施引导其发展,而不是等到问题严重到不可逆转时才开始寻找解决方案。

为应对这些挑战,国际社会已开始建立初步的治理框架。各国政府和监管机构已经出台了相关政策和法规,旨在规范人工智能生成技术的发展,确保这些技术能够安全可靠地服务于社会。例如,国家互联网信息办公室等七部门联合发布的《生成式人工智能服务管理暂行办法》就是一个典型的例子,试图通过一系列法规来平衡技术发展与安全风险之间的关系。不可否认的是,这些初步的治理框架仍存在一些局限性。一方面,立法进程往往滞后于技术进步的速度,使得法律法规难以及时适应技术变化;另一方面,治理机制的构建还需要考虑多方利益相关者的参与,以确保治理措施的全面性和有效性。此外,还有存在于治理主体之间的协调问题,以及如何在维护公共利益的同时保障技术发展的挑战。

二、生成式人工智能诱发的主要风险

人工智能生成技术的快速发展带来了诸多益处,但也诱发了多重风险,涉及技术、社会和个人等多个层面。其中,数据和算法风险是最核心的问题之一。由于人工智能生成系统高度依赖数据和算法,任何数据偏差或算法设计缺陷都可能导致严重后果。在数据方面,滥用和泄露的风险尤为突出。一方面,数据的不当收集和使用可能会侵犯个人隐私;另一方面,数据泄露事件不仅会暴露敏感的个人信息,还可能被不法分子用于犯罪活动。算法风险则主要体现在两个方面:算法歧视和算法权力。前者源于设计者在算法编写过程中植入主观偏见,可能导致某些群体受到不公平对待;后者则是掌握算法技术后滥用权力,可能导致资源分配不均,加剧社会不平等。

生成式人工智能能够根据用户输入生成相应的文字、图片、音频或视频等内容,但缺乏对输入输出内容真实性的判断能力,这就为深度伪造创造了条件,因此生成内容的风险不容忽视。深度伪造技术的滥用会严重干扰国家安全和社会秩序,包括政治安全风险、经济秩序破坏、公共安全威胁、社会信任危机等。此外,深度造假还会侵犯个人权利,如人身安全权、名誉权、财产安全权等。

就业替代和人工智能鸿沟是生成式人工智能的两大长期负面影响。一方面,由于人工智能强大的生成能力,它正在逐步取代人类的一些工作,尤其是那些重复性高、规则性强的工作。这不仅涉及低技能劳动力的替代,还涉及一些白领岗位,如数据分析和剧本创作。这一趋势可能导致大量人员失业,进而引发社会不稳定。另一方面,人工智能鸿沟的存在意味着不同个人、企业和国家在接触和使用人工智能技术方面存在显著差异,这不仅会加剧社会不平等,还可能引发更多社会问题。

三、生成式人工智能治理现状

国际上,联合国教科文组织和高级别人工智能咨询机构等组织提出了有关人工智能伦理和治理的建议书和报告,为全球人工智能治理提供了指导性框架,强调了以人类为中心的原则、透明度、可解释性、安全性以及公平性等核心价值。在中国,政策制定者高度重视生成式人工智能的安全与治理问题。2023年5月,国家互联网信息办公室等七部门联合发布了《生成式人工智能服务管理暂行办法》(以下简称《办法》),这是中国首次对生成式人工智能研发和服务进行顶层设计的规范性文件。《办法》确立了发展与治理的原则和方法,为行业划定了底线,并实行包容审慎的分类分级监管。同年10月,又发布了《生成式人工智能服务安全基本要求》(以下简称《基本要求》),为规范人工智能安全服务提供了基本指引。

《办法》集中关注生成式人工智能涉及的国家安全、隐私安全、技术滥用、知识产权和他人权益问题。它从明确条件要求、划定责任主体、形成问题处理机制、清晰法律责任等方面为行业提供了具体的指导。《办法》在预防算法偏见、应用场景和使用范围等方面未作出具体规定,而在实践中为生成式人工智能的调整范围提供了更大的普适性,并放宽了一些监管要求,增加了鼓励人工智能技术发展的措施。《基本要求》则是国内首个专门针对生成式人工智能安全领域的规范意见稿,它包含了生成式人工智能服务在安全方面的基本要求,包括语料安全、模型安全、安全措施、安全评估等,并给出了语料及生成内容的主要安全风险分类。该文件的正式出台有助于建立更安全、可靠的生成式人工智能服务生态系统。

在科技伦理和价值导向方面,中国政府逐步探索了包括人工智能在内的新兴科技的基本伦理价值规范。2022年3月,中共中央办公厅、国务院办公厅下发的《关于加强科技伦理治理的指导意见》(以下简称《指导意见》)将“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”和“保持公开透明”作为科技伦理原则。《指导意见》中所提及的原则为生成式人工智能伦理治理提供了方向指引,并且各地纷纷出台了相关的科技伦理治理方案。

中国针对生成式人工智能的立法主要体现在部门规章层面,尚缺乏专门性法律,但已经出台的规章和政策文件也构成了一个初步的治理框架。例如,2017年国务院发布的《新一代人工智能发展规划》确定了人工智能发展三步走的战略目标,并提出了相应的法律法规和伦理规范。2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》提出了人工智能治理的框架及行动指南。2021年9月发布的《新一代人工智能伦理规范》将伦理道德融入人工智能全生命周期,为人工智能治理提供了伦理指引。2023年8月,多部门联合出台的《管理办法》正式施行。2024年5月9日,国务院办公厅印发了《国务院 2024 年度立法工作计划》,“人工智能法草案”再度被列入预备提请全国人大常委会审议的项目。并且,这已是该法连续第二年被纳入国务院立法计划的预备提请审议项目。

由此可见,国内的政策制定者们正在努力构建一个既能促进生成式人工智能创新发展又能确保其安全可控的治理框架。通过《办法》和《基本要求》等规范文件,中国在技术发展与技术治理之间的控制难题上进行了有益的探索,并为打破所谓的“科林格里奇困境”提供了有效的治理对策。并且科技伦理和价值导向的重要性也被充分认识到,有助于确保生成式人工智能技术的健康发展和社会福祉的最大化。

四、生成式人工智能治理的完善路径

(一)宏观:构建敏捷治理模式

敏捷治理模式是应对人工智能快速发展及其带来的挑战的重要途径。在当前人工智能技术快速发展的时代,敏捷治理模式应运而生,并逐渐成为应对人工智能挑战、平衡创新与监管的重要理念。敏捷治理模式借鉴了软件开发中的敏捷开发理念,强调灵活性、快速反应和持续改进。由于人工智能技术的特殊性,传统的监管模式往往难以适应其快速发展的步伐,而敏捷治理模式可以有效解决这一问题。该模式通过建立涵盖事前预防、事中干预和事后惩罚的全流程治理机制,确保监管的及时性和有效性。在事前预防阶段,重点是建立严格的市场准入制度,对进入市场的创生型人工智能产品和服务的技术安全性和伦理合规性进行严格审查,从而有效防范潜在风险因素进入市场。在事后干预阶段,通过监督机制的建立,一旦发现违规行为或潜在风险,相关机构能够立即采取必要的干预措施,包括技术调整、警告通知、暂停服务等,以降低不利影响。在事后处罚阶段,依法追究违规行为的责任,通过罚款、吊销执照等方式进行处罚。在实现敏捷治理模式的过程中,需要政府、企业、学术界和个人等社会各界共同努力,形成多元共治的局面。只有通过这种合作与协作,才能确保敏捷治理模式的有效实施,促进人工智能技术的健康发展。因此,敏捷治理模式为我们提供了人工智能时代平衡创新与监管的新思路,有助于我们更好地把握和应对生成式人工智能带来的各种挑战。

(二)中观:完善法律法规体系

每当一种新技术出现并发展,现有的法律法规体系往往滞后于科技的进步,而在生成式人工智能领域监管需求更是往往超出现有法规的覆盖范围。为了有效应对这一问题,有必要从几个方面完善法律体系。一是必须强化监管责任,明确划分各相关部门的职责权限,确保不出现监管真空。这涉及监管机构之间的协调,还涉及提升这些机构的专业技术能力,使其能够更好地面对新出现的技术挑战。二是应在法律中明确规定人工智能治理的基本原则,如确保公平公正、保护个人隐私、提高透明度等,以确保所有决策都符合广泛的公共利益。三是立法过程应由政策文件主导,优先解决当前最紧迫的问题,如数据安全和知识产权保护,同时为未来的法律制定提供明确的方向和框架。

(三)微观:健全治理机制和措施

在微观层面上,治理机制需要覆盖多个层次和主体,形成政府监管、企业自律、公众参与的综合治理体系。多层次、多主体的治理主体体系是必要的。除了传统的政府监管部门外,还应引入行业协会、第三方机构等多元主体共同参与治理过程。这种多元化的参与有助于形成全方位的监督网络,提高监管效率,并确保各方利益得到平衡和保护。而制定法与行业自我规制相结合是关键的。一方面,通过制定具有强制约束力的法律法规来规范市场行为,为所有参与者设定明确的规则和标准;另一方面,鼓励行业内部形成自我规制机制,提升企业的自律意识。这能够促进企业主动遵守规范,同时也能够补充法律监管可能存在的不足。

具体到治理措施上,需构建数据分享机制和建立数据开放制度。通过建立数据共享平台,可以促进数据资源的有效利用,同时要确保数据安全和个人隐私的保护。对于公共数据集,应当制定开放共享规则,鼓励科研机构和企业进行合作研究,推动技术创新。强化技术审计和推动透明度建设也不可忽视,需要定期对生成式人工智能系统进行技术审计,以确保其符合最新的安全标准和伦理准则,同时要求企业备案算法设计、训练数据来源等关键信息,增加系统的透明度和可解释性,多方发力共同构筑一个健康、透明和可持续发展的人工智能生态环境。

五、结论

生成式人工智能技术的发展带来了巨大的社会经济效益,但也引发了诸多风险与挑战,如数据与算法风险、内容生成风险、就业替代风险、人工智能鸿沟等。这些风险的存在,使得生成式人工智能的治理面临 "科林格里奇困境",即在技术发展初期难以准确预测其社会后果,而在技术成熟并广泛应用后,这些后果更加难以控制。因此,要有效规避这些风险,就需要有前瞻性的治理策略,确保技术的安全可控。

为了解决上述问题,本文从不同层面提出了不同的解决路径。在宏观层面,建立涵盖事前预防审查、事中干预和事后惩罚的全过程治理机制,确保及时有效应对技术发展中的不确定性和潜在风险。在中观层面,强化监管责任,明确治理原则,通过政策引导完善立法,确保法律法规能够跟上技术发展的步伐。在微观层面,构建多层次、多主体的治理主体体系,将强制性法律法规与行业自律相结合,形成综合治理体系。例如,建立数据共享机制和数据开放制度,促进数据的有效利用和保护。综上所述,面对生成式人工智能所带来的机遇与挑战,坚信唯有秉持创新与审慎并重的原则,方能在确保技术健康发展的前提下,开创人类社会数字化转型的新篇章,为全球可持续发展贡献力量。

(本文作者系南宁市人工智能学会秘书处副秘书长 刘泽霖)

声明:本文来自安全内参,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。