人们发现人工智能(AI)技术为许多公司创造了价值;然而,它也有意想不到和不受欢迎的后果。人工智能相关风险的现实问题导致了人工智能治理框架的加速发展,并产生对人工智能的使用需要更大监督的呼声。基于此,Mardi Witzel和Niraj Bhargava 撰写了一篇《人工智能相关风险:基于ESG的监管方法的优点》(AI-Related Risk:The Merits of an ESG-Based Approach to Oversight)的文章,文章考虑了基于ESG(environmental,social,governance)的方法进行人工智能相关风险监督的优点,并重点关注当前国际可持续性标准发展的轨迹。尽管存在差异,但人工智能治理和ESG报告都力求从最广泛的意义上解决风险,采取主动和透明的方法来管理和缓解风险。[1]

背景概述

人工智能技术正在广泛应用于商业领域。根据一项研究,自2017年以来,人工智能的采用率增加了一倍多,但近年来使用人工智能的组织比例稳定在50-60%。[2]另一项全球调查显示,人工智能的采用率呈持续上升趋势,据报道,35%的公司目前正在使用人工智能,42%的公司正在探索人工智能的使用,从2021年到2022年,人工智能的采用率将增长4%。虽然人们发现人工智能为许多公司创造了价值,但它也被认为是一把双刃剑,会产生许多意想不到的不良后果。[3]人工智能治理框架的发展越来越多,越来越多的文献呼吁对其使用进行更大的监督,这反映了人工智能相关风险的现实。《MIT Sloan Management Review》2020年发表的一篇文章指出,董事会可以通过几个视角来管理与人工智能相关的风险:合规、战略规划、法律或商业风险,以及ESG。[4]欧盟于2021年4月公布了拟议的《人工智能法案》(Artificial Intelligence Act),这是首例对人工智能采取全面的监管方法,法案附带了一系列广泛的义务,包括与人工智能相关的透明度和披露义务,支持对企业系统的开发和使用负责。[5]2021年11月,国际财务报告准则基金会(The International Financial Reporting Standards Foundation,IFRS)宣布成立国际可持续准则委员会(International Sustainability Standards Board,ISSB),这标志着一种更加统一的全球方法即将出现,以自愿报告和披露ESG或可持续性标准,要求进行适当的企业管理和披露人工智能的使用。2023年6月26日,ISSB 发布了首批可持续披露准则,开启了全球资本市场可持续相关披露的新时代。[6]

ESG是一个更全面、更准确地思考公司在短期、中期和长期范围内面临的风险和机遇以及这些风险和机遇如何影响公司业绩的框架。Henrik Skaug Sætra建立在早期工作的基础上,提出了一个AI ESG协议——一个框架,根据三个影响范围及其在供应链中的经历评估AI能力、资产和活动对ESG的影响。[7]本文以这项研究为基础,考察了将ESG视角应用于人工智能治理挑战的价值,特别是人工智能相关风险的管理。认识到新成立的ISSB对全球报告的实际影响,本文的贡献是回顾当今可用的人工智能治理工具的范围,探索人工智能相关风险的性质,并提出如何将人工智能相关风险的报告和披露纳入ISSB工作的方法,以制定可持续发展报告的单一全球基线。在本文中,ESG和可持续性这两个术语在报告和披露举措方面可以互换使用。

ESG方法管理人工智能治理的必要性

无形资产与有形资产在企业估值中所占的比例发生了巨大变化。人力资本、知识产权、公司声誉和客户忠诚度等资产比过去更有价值。根据最近的一项研究,1975年,标准普尔500指数市值中只有17%属于无形资产,而到2015年,这一数字已增长到84%。[8]无形资产的重要性因其经济规模而增强它们与较高市净率正相关的存在和经验证据。

人工智能越来越被视为一种资产——组织价值的驱动力。人工智能可以被用作帮助企业更高效地运营,从这个意义上说,它可以被视为一种生产力工具。人工智能是一种无处不在的技术,可能在每个部门都有应用,与数据和企业系统架构交织在一起。人工智能不仅能够比人类更快更好地完成任务,而且能够以人类以前无法实现的规模完成任务。它已经并将继续改变许多行业的游戏规则。从这个意义上说,人工智能有可能成为各类公司最有价值的无形资产之一。

与此同时,人工智能并非没有风险。人工智能的实施存在直接相关的风险,包括数据管理不善、算法偏差、误差和漂移的可能性,且人工智能的复杂性和解释结果也带来了风险。人工智能的使用可能会使个人或组织受到歧视或错误的指导从而产生一级后果,此外,人工智能的使用还会产生二级后果,包括技能萎缩等动态影响,可能会影响个人、组织和社会。

实际上,ESG在支持长期价值创造方面起到重要的作用。ESG或可持续性方法已经出现在公司目标和战略的前沿,使公司能够创造价值和减轻风险。ESG的兴起既可以解释为某种道德上的必要性,也可以解释为市场估值构成的变化。企业的非财务要素的规模和比例正在增长,并对企业的估值产生重大影响。人工智能的使用是公司的重大问题,有可能影响财务业绩、公司声誉和利益相关者。因而,如何治理人工智能成为风险管理的重中之重。

人工智能治理的相关类型

(一)国家战略

经济合作与发展组织(Organization for Economic Cooperation and Development,OECD)列出了来自69个国家、地区和欧盟的数百项国家人工智能政策举措,大致分为四类:治理相关(564项)、财政支持(294项)、人工智能促进和其他激励措施(423项)以及指导和监管(301项)。政府实体、研究和教育组织、私营公司、社会团体、个别经济行为者(例如企业家和私人投资者)和中介机构(例如孵化器、工业协会和技术转让办事处)正在采取这些主动行动。

(二)人工智能伦理框架

许多组织已经为人工智能技术的开发和部署提出了道德原则。其中包括著名的框架,如欧盟的《可信赖人工智能伦理准则》、电气和电子工程师协会的《人工智能和自主系统伦理考虑全球倡议》、人工智能伙伴关系和新加坡人工智能治理框架模型。这些框架每个都是独特的,但它们倾向于共享共同的“线程”。大多数先进的人工智能伦理框架都包括与透明度和可解释性、公平和偏见、问责制、隐私和以人为本有关的原则。

(三)法律和监管文书

直到最近,有关人工智能开发和使用的立法还仅限于地方性和特定行业性的案例。随着在国家层面提出的几项总体性人工智能法律的出台,这种情况发生了变化。由于人工智能技术本身的动态性,人工智能相关立法将随着时间的推移而不断发展。如果对此存在任何疑问说,那么随着生成式人工智能作为一种流行工具的兴起,其不可避免性已经暴露无遗,以及对人工智能应该如何定义的后果也已经很明显。价值链中的参与者以及谁应该对不同的控制和责任负责,这些都是重要的考虑因素。

1.欧盟《人工智能法案》

欧盟《人工智能法案》于2021年4月提出,是在国家一级(或者在这种情况下是超国家一级政府)对人工智能进行监督的综合监管工具的首例。《人工智能法案》采用基于风险的方法来监管人工智能,概述了四种不同的风险类别:不可接受的风险、高风险、有限风险和最低风险。拟议法案的大部分内容涉及高风险系统的要求,包括稳健的风险管理方法、数据治理、技术文档、记录保存、透明度和向用户提供信息、人为监督和准确性、稳健性和网络安全。根据拟议法案的指导意见,责任负担主要放在人工智能的开发人员身上,他们有义务实施质量管理体系和其他规定。这种基于风险的分级需求通常被称为“相称性”,标志着监管机构努力将监管负担集中在最需要的地方,并释放风险较小的应用程序空间,以不受约束地追求创新。欧盟考虑了许多标准,以支持其立法目标。欧盟最近向CEN-CENELEC(欧洲标准化委员会和欧洲电工标准化委员会)提出一项标准化要求,即涵盖人工智能、组织系统、数据质量和数据访问等10个领域的标准。

2.美国《算法责任法案》

2022年,美国国会议员在参众两院都提出了《算法责任法案》(Algorithmic Accountability Act)。《算法责任法案》关注的是用于做出“关键决策”的自动化流程和系统。在颁布后的两年内,拟议的法案将要求美国联邦贸易委员会(Federal Trade Commission)推行影响评估的法规。根据这些影响评估的结果,相关实体将被要求采取行动,消除或减轻可能对消费者生活产生法律或其他重大负面影响。

3.加拿大《人工智能与数据法案》

加拿大的C-27法案《2022年数字宪章实施法案》,包含三项与数据隐私和人工智能相关的独立法案,包括拟议的《人工智能与数据法案》(Artificial Intelligence and Data Act,AIDA)。《人工智能与数据法案》的重点是为开发和使用人工智能提供新规则。该法案的一个关键部分概述了公司必须评估其人工智能系统是否具有“高影响”(将在法规中进行全面定义),如果是,他们必须履行一系列关于风险评估和减轻偏见、系统监控、透明度和记录保存、通知和使用匿名数据的义务。拟议的《人工智能与数据法案》是加拿大国家人工智能战略的一个组成部分,该战略于2017年启动,并于2020年更新。该战略旨在促进加拿大人工智能的发展和运用,同时也解决诸如道德考量、多样性和包容性以及人工智能对劳动力的影响等问题。

4.加拿大的算法影响评估

算法影响评估(Algorithmic Impact Assessment,AIA)是联邦政府内部使用的强制性风险评估工具,以支持财政委员会关于自动决策的指令。影响评估部分是该工具的核心,查询诸如人类参与指令的程度、决策的可逆性和影响的持续时间等问题。算法影响评估的输出是确定自动决策应用程序的影响级别,即一级(影响很小至没有影响),二级(影响中等),三级(影响高)或四级(影响非常高)。根据影响程度的不同,对系统运行的同行评审、通知、决策、解释要求、培训、应急计划和批准有不同的要求。

(四)人工智能的标准

许多标准组织正在制定标准,以支持使用人工智能。以下是国际标准组织(The International Standards Organization,ISO)和国家标准与技术研究所(The National Institute of Standards and Technology,NIST)的例子。

1.ISO 42001 -人工智能管理系统

ISO 42001提供了建立、实施、维护和持续改进人工智能管理系统的要求。组织应该将应用需求重点放在人工智能独有的特性上。ISO 42001概述了组织需要了解其内部和外部环境以及相关方的需求,并在此基础上建立管理体系的范围。该标准规定了六个不同领域的要求:

·领导(例如,人工智能政策、角色、责任和权限);

·规划(例如,风险准则和风险评估、系统影响评估、人工智能目标);

·支持(例如,资源、能力、意识、沟通、文件);

·运行(例如,运行计划和控制的过程);

·绩效评价(例如,监视、测量、评价、内部审核);

·改进(例如,持续改进人工智能管理系统)。

2.NIST人工智能风险管理框架

NIST人工智能风险管理框架(NIST AI Risk Management Framework,AI RMF)承认与人工智能系统相关的独特风险,并将风险管理作为人工智能开发和使用的关键组成部分。根据NIST的说法,人工智能风险管理可以通过设计、开发和部署人工智能的组织及其内部团队,从而更加批判性地考察环境和潜在的或意想不到的影响,并推动其使用和实践。

NIST人工智能风险管理框架包括四个功能,以帮助组织在实践中解决AI系统的风险:治理、映射、测量和管理。虽然“治理”功能适用于组织人工智能风险管理流程和程序的所有阶段,但“映射、测量和管理”功能可以应用于人工智能风险管理系统特定的环境和人工智能生命周期的特定阶段。

NIST人工智能风险管理框架将可信赖AI的原则描述为准确、有效、可靠、安全、可解释、隐私增强、公平、负责和透明。NIST还发布了一份题为《迈向识别和管理人工智能偏见的标准》(Towards a Standard for Identifying and Managing Bias in AI)的特别出版物,其中讨论了三类偏见(系统偏见、人为偏见、统计和计算偏见),并提供了更新的生命周期指导(预设计、设计、部署)。

(五)企业级人工智能治理

基于人工智能道德原则的框架和指导已经渗透到企业精神中,许多公司、组织和政府部门都支持自己的一套道德原则。目前的挑战在于如何实施这项框架和指导方针。用实际方法实施人工智能道德原则是企业级人工智能治理的核心。从“原则转向实践”是当今人工智能治理的一个常见问题,而一系列监管方法的一个根本弱点是,它们在实际实施方面没有起到多大作用。ESG和可持续报告在监管的许多方面都稍微超前一些。例如,气候相关财务信息披露特别工作组(The Task Force on Climate-Related Financial Disclosure,TCFD)表明,它决定构建一个框架,以促进人工智能治理的实施和披露。TCFD的建议并不局限于组织的排放指标,还包括与治理、战略、风险管理和目标相关的披露要求。ISSB的指南草案也建立在这些信息披露的基础上,预计将促进对可持续性主题更多的理解和更好的治理。

通过加强可持续报告方面取得的进展有助于人工智能治理在两个方面的事业,即可操作性和标准化。ESG报告提供了一个例子,说明如何推动事物从基于原则的框架到包含问责制、运营要求和指标表达的指导。此外,通过全球各司法管辖区可持续性框架的标准化,ESG报告即将提供其他有指导意义的东西。对与可持续相关的风险和机会进行全球基准测试,以帮助投资者做出明智的决策,这突显了将一种既满足投资者信息需求又促进良好治理纪律的方法制度化的优点。

将人工智能排除在外似乎是不明智的,因为它有望对未来产生巨大的经济和社会影响。人工智能治理可以从可持续报告和披露的进展中学到一些东西,并在操作上推进这些实践。要做到这一点,就需要围绕人工智能风险和机遇的性质和重要性展开,以及对报告和披露的影响展开热烈的讨论。

人工智能相关风险的差异

(一)技术层面

几十年来,组织一直在寻求技术来支持他们的业务运营。特别是金融服务,已经使用模型来降低风险、支持法规遵从性和实现战略业务需求。例如,传统模型已被用于银行业,以支持资本供应、战略规划、定价、资产流动性、客户关系管理、洗钱和欺诈检测等领域的决策和预测。由于涉及的数据量和时间限制,机器学习模型能够扩大决策或预测的规模,并解决超出传统模型的任务,从而带来了许多好处。

大数据的可用性是促进机器学习发展的因素之一,同时也促进了更强大的计算能力和算法开发的进步。但这些发展也带来了取舍。与传统模型相比,机器学习模型是动态的和不确定的。他们的学习能力是他们大规模运作能力的基础,但这也给过程引入了可变性。机器学习模型可能会偏离轨道。

在机器学习中,模型通常被设计用来描述、预测或规定某些东西——这些被称为目标变量或结果。机器学习从数据开始,它可能包括电子表格、文本、图片、金融交易、传感器读数或年度报告中的信息。大部分可用数据用于训练机器学习模型,其中一小部分用于测试模型的准确性。核心机器学习应用程序本身产生的风险和意想不到的后果主要来自三个方面:数据处理、模型特征和模型随时间的部署。

1.数据相关风险

利用数据进行人工智能治理是一项业务驱动的呼吁,即利用数据中的潜在力量来获取具有战略价值的信息。这就需要在整个企业中广泛提供数据,并在数据存储、数据安全和数据隐私方面引入明显的风险。此外,机器学习过程也有其自身的挑战,数据可能会在多个合作伙伴、组织和/或国家之间迁移。在每个阶段存在不同的法律、政策和道德规范可能会影响模型学习。在一个司法管辖区被认为是道德的事情,在另一个司法管辖区可能被认为是不道德的。

2.机器学习模型的特征

机器学习模型带来的风险可能与模型质量、模型复杂性或模型学习和验证的方法有关。机器学习算法被错误地应用于在不存在的数据中寻找模式,从而损害了模型质量。当从机器学习过渡到深度学习时,模型复杂性会增加。神经网络力量的另一面是它们的不透明性,产生的结果可能不容易解释。模型学习风格,特别是监督学习与无监督学习的使用,是机器学习固有风险的基础。在无监督学习中,没有训练模型的结果变量,算法自己对数据进行模式和结构排序,这就产生了不同的管理和监督挑战。

3.模型和模型漂移的生命周期

人工智能相关风险的来源之一是人工智能生命周期——包括数据活动、模型设计、模型开发、模型部署、模型漂移监控和模型处置步骤的进展。在生命周期的每个阶段都存在着不同的风险,数据漂移的必然性是一个持续的挑战。机器学习模型是动态的,这是机器学习的真正风险。数据随着世界的变化而变化。根据冬季季节温度训练的模型将做出与根据夏季温度训练的模型不同的预测。由于模型漂移,一些模型需要重新训练,甚至是定期训练。在机器学习中,模型漂移是正常的;这是可以预期和管理的现象,但它提供了一个不断变化的目标。

(二)组织角度

除了人工智能的技术相关风险之外,它在组织环境中作为实际应用工具的开发和使用也存在风险和影响。在实际应用中,有四个因素可以表征与人工智能相关的风险:速度和规模、AI赋能、人工智能生命周期和道德人工智能。

1.速度和规模

人工智能驱动输出的速度和规模可能被视为这项技术机会的基础,但也会加剧风险。人工智能做得好会带来巨大的好处。相反,人工智能做得不好可能对商业非常不利——更不用说人类和地球了。这一现实既是拥抱人工智能机遇的动力,也是培养强大的人工智能治理的动力。

2.AI赋能

AI不是被动的技术,它利用数据的潜在力量达到某种目的,从而产生影响。将这种工具放入实体运营的管道中意味着将对某些东西产生影响,例如,个人、团体、地球、公司、利益相关者。事实上,按照定义,人工智能是基于证据的,这可能会赋予那些能够访问它的人更多权力,并促使更多自动化的决策,无论是积极的还是消极的。

3.人工智能生命周期

与人工智能相关的生命周期,即从数据到设计、开发、部署和持续监测漂移,构成了治理和监督的新挑战。风险在生命周期的不同阶段有所不同,这是一个风险,但更大的挑战是不可避免的漂移和部署后变化的持久性。这对企业有效管理人工智能所需的政策、流程和组织结构类型产生了影响。

4.道德人工智能

在响应以人为中心、公平和非歧视、透明和可解释、高质量和准确、安全可靠、符合隐私规则并接受明确问责制的人工智能的呼吁方面,存在着独特的挑战。这不仅对组织内部的政策制定者有影响,而且对更广泛的员工也有影响,因为数据和数据分析的作用可能渗透到企业活动的各个方面。

关于人工智能相关风险,需要认识到的重要一点是,它既源于技术的独特方面,也源于个人和组织如何开发、使用和管理人工智能的实际现实。除了人工智能带来的机遇,这些风险可能会以不同的组合形式出现和演变,从而产生潜在的法律、监管、声誉和财务影响。

人工智能相关风险的重要性

(一)人工智能相关风险的重要性与ISSB的方向

一方面,根据组织系统和流程,另一方面,根据绩效指标,确定人工智能相关风险的重要性范围,与ISSB在其征求意见稿(S1)《国际财务报告可持续披露准则第1号——可持续相关财务信息披露一般要求》中的指引一致。ISSB的指南草案将可持续性相关财务信息描述为比财务报表中报告的信息更广泛的信息,并可能包括实体对与可持续性相关的风险和机会的治理:解决这些风险和机会的战略、相关决策对现金流入和流出的预期影响、实体的声誉、业绩和前景及其知识资产的开发。

ISSB的指南草案确定了四个核心披露内容领域:治理、战略、风险管理以及指标和目标,因为它们都与实体识别、处理、管理和监测重大可持续相关风险和机遇的方法有关。征求意见稿(S1)代表了ISSB的总体指导意见草案,可以理解的是,更多具体的标准将紧随其后,解决离散的可持续性主题,并可能在适当的情况下在行业基础上解决这些问题。与此同时,ISSB的指南指示实体使用指南草案并“考虑以行业为基础的SASB标准(Sustainability Accounting Standards Board Standards,可持续性会计标准)中的披露主题,ISSB的非强制性指南(如CDSB框架应用指引之水资源相关披露和CDSB框架应用指引之生物多样性相关披露),旨在满足通用目的财务报告使用者信息需求的其他准则制定机构制定的最新文告;在相同行业或地理区域经营的主体识别的可持续相关风险和机遇”。

(二)AI环境下的SASB标准

重要性在于让企业做好应对风险和机遇的准备,因此,贵金属采矿业中影响最大的问题与医疗保健或银行业的问题不同。同样,人工智能在执法、司法系统和医疗保健领域面临的风险与娱乐或制造业不同。出于这个原因,针对人工智能相关可持续性标准的行业特定方法可能是适当的,以补充ISSB核心披露内容的四个领域。SASB框架适用于特定行业和特定问题的披露,因为单独的标准概述了六个部门的77个行业,并根据五个方面进行了描述:环境、社会资本、人力资本、商业模式和创新,以及领导力和治理。

对于使用人工智能的公司来说,每个SASB维度都有潜在的影响。这就提出了两个明显的问题:一是,SASB准则是否涵盖了ISSB指南草案未涵盖的任何对人工智能重要的披露要求?二是,目前存在的SASB标准是否充分涵盖了与人工智能相关的可持续性风险和机遇?

如果对组织将如何使用新的ISSB指南草案没有更清晰的认识,就很难回答第一个问题,但是,总的来说,ISSB披露要求的性质看起来与SASB不同。指导意见草案中的披露要求读起来像是对宏观、企业级系统和监督流程的信息要求。相比之下,SASB有更具体的主题,如排放、人权影响和消费者隐私,并以行业为基础进行查询。此外,肯定会有一些重叠,特别是在与业务模式影响和治理主题相关的问题上这两个框架。尽管如此,有合理的理由相信,SASB将作为ISSG一般要求的良好补充。

转到第二个问题,那么,今天的SASB标准是否足够?这个问题可以分解成几个子问题,每个子问题都需要单独解决:a)是否有与人工智能风险(和机会)相关的重要主题目前未被SASB框架捕获?b)人工智能相关风险(和机会)的重要性是否因行业而异?c)固有的数字化人工智能公司和/或用例(例如,欺诈检测)与人工智能生产应用(例如,制造业中的先进机器人)面临的实质性问题之间是否存在分歧?d)对于人工智能的开发者、采购者、用户和平台提供商而言,风险(和机会)的重要性是否存在差异?前三个问题,在a),b)和c)中捕获,实际上是在问一个问题:在SASB框架中是否应该有一个与AI相关的新(横向)主题?最后一个问题(在第d点)中提出则更加微妙:如果人工智能开发人员面临不同的重大风险,这是否意味着在一个(另一个)新的横向主题中存在一系列离散的问题,或者,人工智能开发人员是否与其他软件公司有足够的不同,从而可能需要一个新的垂直“人工智能开发人员行业”?

1.当前SASB标准对人工智能的充分性

该文作者认为,SASB标准目前没有充分捕捉到与人工智能相关的风险和机会。SASB对软件和IT服务的需求最好地说明了这一点,因为可以说,这是与人工智能重叠最多的行业。SASB标准要求软件和IT服务行业的公司在四个问题类别中测量和报告六个指标:硬件基础设施的环境足迹(环境);客户隐私和数据安全(社会资本);员工敬业度、多样性和包容性(人力资本);竞争行为和系统风险管理(领导力和治理)。

目前,要求以通用的方式提供与数据隐私和数据安全相关的关键指标的策略、实践和性能。在人工智能的环境中,假设应用程序的风险或影响水平超过了需要报告的阈值,那么就会有不同的问题。这些问题将与数据、模型和结果有关,特别是在人工智能用例的上下文中,并可能包含与人工智能生命周期的不同阶段相关的查询。这些可能包括与人工智能可信度有关的披露要求,包括可解释性、公平性、偏见和准确性。

此外,还存在一些问题,以提取有关实体管理人工智能的企业级系统的信息,包括质量管理、风险管理和隐私管理方法。这些类型的问题和措施,由于它们适用于人工智能,在当前的SASB框架中是缺席的。进一步发现多个维度上可能需要考虑的许多主题。人工智能是一项无处不在的技术,有望对个人、社会、地球、商业模式和治理产生影响。这些影响既有积极的一面,也有消极的一面——机遇和风险并存。一旦ISSB决定评估人工智能相关的风险和影响,就可能会发现构建风险和机遇的新的和扩大的挑战。

2.不同行业人工智能重要性的差异

人工智能是否会因行业或用例而变化,以及SASB(或任何其他框架)将如何处理这一点。从表面上看,银行可能会遇到与人工智能相关的重大问题,而制造公司则不会。但是,如果制造公司不仅在机器人技术中使用人工智能,而且还使用它来筛选简历,或者用于与工厂车间的人身安全有关的程序呢?很有可能在未来十年内,大多数行业和每家具有一定规模的公司都将使用人工智能,并面临相关的重大风险和机遇。这强调了将与人工智能相关的主题作为框架的横向补充的要求,并表明该框架在不同行业之间应用这些主题的可变性,而SASB很适合应对这种变化。

3.不同类型AI行动者的AI重要性差异

本文只考虑风险和机会的重要性对AI开发者和AI用户来说是否不同,即可能指向横向主题添加到SASB框架的优点,以适应AI开发人员面临的特定风险和机会。另外,也有一种观点认为,人工智能的发展,至少对于那些积极参与人工智能开发的组织来说,应该有自己的新垂直领域。如果假设中垂直领域的密集人工智能开发人员被发现拥有一套足够独特的实质性披露主题,而其他行业(主要是软件和信息技术行业,但通常也包括任何使用人工智能且很少进行内部开发的行业)却没有,那么情况就是这样。

认识到SASB框架根据行业部门和资本维度考虑重要性,可以分析人工智能开发的使用在五个维度中的每一个维度中构成的独特风险,以及这些风险与人工智能部署者和用户的不同之处。我们从人工智能治理领域获得了广泛的指导,在这个领域,没有标准化,但围绕原则和风险的共同主题已经出现。人工智能治理所支持的风险主题与ESG风险的一般框架非常一致,但人工智能治理方法(除了一些例外)在操作方法上仍然程度相当轻,包括护栏、措施和指标。ISSB关于如何建立全球标准以披露与可持续性相关的风险和机会的指导草案中,对人工智能相关风险的考虑不足。根据指南草案中的一般要求和SASB标准中的行业特定指南,我们有一个模板,可以将人工智能风险相关问题整合到ESG报告和披露中。

将重大人工智能相关风险纳入ESG中

(一)一般披露规定

制定一般披露要求的起点是考虑人工智能在ISSB指南草案中提供的四个核心内容领域中的风险(和机会):治理、战略、风险管理、指标和目标。然而,在缺乏组织背景的情况下,对人工智能进行全面披露的方法存在挑战。出于这个原因,对四个核心内容领域的任何评估都应该伴随着组织人工智能背景声明,澄清组织在人工智能系统方面的角色和强度。背景陈述的内容可以借鉴甚至参考组织标准的ISO 42001背景。例如,可以预期要公开的材料主题根据组织在人工智能系统方面的角色而变化,包括自用人工智能开发、供他人使用的人工智能开发、供自己使用的人工智能采购、供他人使用的人工智能采购、供自己使用的人工智能工具托管平台和供他人使用的人工智能工具托管平台。

核心内容问题的相关程度可能取决于组织在人工智能系统方面的角色和强度,以及部署人工智能系统的预期机会、风险和影响。例如,在人工智能轻度用户的组织中,在组织的可持续性相关披露的一般规定中报告和披露人工智能相关的风险和机会可能是有意义的。此外,由于该技术的新颖性和潜在影响,应鼓励在人工智能开发和/或部署方面非常活跃的组织,或参与高风险、高影响的人工智能实施的组织,进行与人工智能特定的可持续性相关的披露。

通过《组织背景声明》的规定,可持续性相关信息的类型可能被认为是披露治理、战略、风险管理、指标和目标方面的材料,则这些信息可以得到充实。借鉴ISSB指南草案,制定一系列与人工智能有关的、与可持续性有关的材料信息。

(二)特定行业的需求

鉴于人工智能的机遇、风险和应用将因行业而异,特别是在人工智能的用户和开发者之间可能存在重大差异,建议未来人工智能相关披露的全球标准的制定考虑SASB标准的行业特定方法。

相关建议

建议1:与组织开发、采购和/或使用人工智能相关的与可持续性相关的风险(和机遇)应包括在ISSB的工作中,以提供全面的全球可持续性相关披露标准基线,为投资者和其他资本市场参与者提供有关公司可持续性相关风险和机遇的信息,以帮助他们做出明智的决策。

·建议2:在将人工智能相关的可持续性风险(和机遇)纳入全球可持续性报告和披露基线中时,应同时考虑一般披露要求和特定行业/特定主题的风险(和机遇)。

·建议3:作为将人工智能相关的可持续性风险(和机遇)纳入全球可持续性报告和披露基线的过程的一部分,应通过与利益相关者的磋商构建人工智能的定义。

·建议4:与人工智能相关的可持续性一般披露应包括有关组织在人工智能系统方面的角色的组织人工智能背景声明。

·建议5:应考虑构建指南,以使组织的背景声明影响与人工智能相关的可持续性风险(和机遇)相关的披露类型。

·建议6:应考虑建立一种基于层次或门槛的方法,以适应与人工智能相关的风险和机遇的一般披露要求,反映了相称性的优点,并且避免对仅使用低风险或低影响人工智能的组织进行过度繁琐的报告的可取性。

·建议7:应对ISSB《可持续性相关财务信息披露一般要求指南草案》进行评估,以便调整并拓展有关问题和主题,反映重要的、与人工智能相关的可持续性风险(和机遇)的广泛性。

·建议8:应对SASB标准进行评估,确定其是否充分涵盖了反映重要的、与人工智能相关的可持续性风险(和机遇)的广泛性问题和主题,具体而言,这些问题和主题可能不会通过一般披露要求被充分覆盖;在不同行业中可能或疑似包含不同的重大风险(和机遇);并且根据组织在人工智能中的角色主要是开发者、用户还是两者兼有,可能或疑似包含不同的重大风险(和机遇)。

结语

ESG报告为如何评估与人工智能和机器学习相关的重大风险和机会提供了一种深思熟虑的方法,但尚未为组织实际测量、监控和报告其使用打开大门。当今流行的ESG框架都没有纳入专门为与人工智能相关的披露设计的标准。本文旨在促进这种可能性,具体意图是促使国际可持续准则委员会及其工作组考虑与人工智能有关的、与可持续性有关的报告和披露的要求。

[1] Mardi Witzel & Niraj Bhargava. AI-Related Risk:The Merits of an ESG-Based Approach to Oversight. https://www.cigionline.org/publications/ai-related-risk-the-merits-of-an-esg-based-approach-to-oversight/.

[2] McKinsey & Company. The state of AI in 2022—and a half decade in review. www.mckinsey.com/capabilities/quantumblack/our-insights/the-stateof-ai-in-2022-and-a-half-decade-in-review.

[3] IBM. IBM Global AI Adoption Index 2022. www.ibm.com/watson/resources/ai-adoption.

[4] Silverman, Karen. Why Your Board Needs a Plan for AI Oversight. MIT Sloan Management Review. https://sloanreview.mit.edu/article/why-your-board-needs-a-plan-for-ai-oversight/.

[5] European Commission. Artificial Intelligence Act. https://artificialintelligenceact.eu/the-act/.

[6] ISSB issues inaugural global sustainability disclosure standards. https://www.ifrs.org/news-and-events/news/2023/06/issb-issues-ifrs-s1-ifrs-s2/.

[7] Sætra, Henrik Skaug. The AI ESG protocol:Evaluating and disclosing the environment, social, and governance implications of artificial intelligence capabilities, assets, and activities. Sustainable Development 31 (2):1027–37. https://doi.org/10.1002/sd.2438.

[8] Ocean Tomo. Intangible Asset Market Value Study. www.oceantomo.com/intangible-asset-market-value-study/.

撰稿 | 李晨珂,清华大学智能法治研究院实习生

选题&指导 | 刘云

编辑 | 沈廖佳

注:本公众号原创文章的著作权均归属于清华大学智能法治研究院,需转载者请在本公众号后台留言或者发送申请至computational_law@tsinghua.edu.cn,申请需注明拟转载公众号/网站名称、主理者基本信息、拟转载的文章标题等基本信息。

声明:本文来自清华大学智能法治研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。