姜 南
同济大学上海国际知识产权学院教授、博导、副院长
温婷
同济大学上海国际知识产权学院博士研究生
一、可解释人工智能引入:应对算法黑箱
随着人工智能技术不断进步,算法复杂性和自主性日益增加,算法的工作机制和决策过程难以被人类理解,甚至产生算法黑箱问题。算法黑箱指数据驱动算法做出决策并借助界面层把指令传递到现实世界中,数据和模型在黑箱内部,物理世界和数字世界之间形成一道天然隔阂,算法的运算规则很难被即时了解和掌握。[i]算法黑箱不仅严重影响算法可理解程度,阻碍算法专利充分披露,还有可能造成算法共谋、算法算计、算法权力等负面后果。涉及大量参数、计算过程庞杂的算法极易出现黑箱问题,尤其是机器学习算法专利、深度学习模型专利等。[ii]打破算法黑箱的核心是实现算法可理解,可解释人工智能的重要性不言而喻。可解释人工智能(Explainable Artificial Intelligence,XAI)指人类可以理解算法决定或其预测逻辑的人工智能,强调复杂算法运作的“可解释性”,与算法专利披露的算法理解需求相契合。[iii]应用可解释人工智能可显著提升算法透明度,通过可信度、信息性、信心度、隐私意识、可操作性、量身定制等来提升算法整体的可解释性。[iv]研究者和开发者能更容易地复现和验证算法,并在此基础上进一步优化或调整算法,理解其可能的局限性或偏见。
算法黑箱问题凸显了算法专利披露对可解释人工智能的迫切需求。相对于法规改革,可解释人工智能提供了一种技术手段,通过优化算法设计和模拟训练,增强算法透明度和可理解性。鉴于此,探讨可解释人工智能在算法专利披露场景下的应用,强调可解释人工智能对复杂算法理解的重要性,分析可解释人工智能嵌入算法专利的法律路径,无疑对实现算法专利充分披露,促进智力成果共享、助力人工智能产业快速发展有重要作用。
二、算法专利充分披露透明度的核心问题:算法能否被理解
算法技术特征的判断需要理解算法。算法本质上是通过一系列解决问题的清晰指令将输入转换为输出的操作,纯粹的算法不属于专利法保护客体,无法获得专利权。但“利用技术手段、解决技术问题、获得技术效果”且满足新颖性、创造性和实用性的算法即可授予专利权。算法的核心要素概括起来为三点:数据、运算原理、输出,在判断算法是否具有技术特征时,应重点关注算法运算原理。[v]但算法建立在深奥的数学原理之上,结构调整和参数优化过程十分庞杂,随着算法与社会生活紧密结合,算法模型计算负荷、数据规模和理论深度早已不可同日而语,算法理解难度不断加大,甚至超出人类可理解的范畴。即便是原理简单的算法,也有可能因为专业领域知识或算法实现细节而难以理解,最终干扰算法技术特征的判断。
新颖性判断中算法理解程度决定“现有技术”对比结果。算法复杂化,尤其是人工智能和算法结合扩展了发明人与专利审查员之间的信息不对称,从而将申请人与审查员之间的“人人交互”转化为“人机交互”。审查员需要理解的并非人的思想而是“算法思想”,基于信息不对称理论,若在设计算法时,申请人利用算法以超过人类和基本搜索工具能力准确性、可靠性的技巧快速浏览大量历史专利文件,筛选并排除其中相同或近似内容,甚至采用替换同义词组等方式,使技术方案符合新颖性要求,可以有效规避“现有技术”。此种情况下,审查员无法简单通过相近词组的方式判断申请主题,进而确定检索范围,要更精准和全面地确定“对比文件”必须要更充分的理解算法。
创造性判断对算法理解程度提出更高要求。创造性的判断核心是“突出的实质性特点”和“显著的进步”。实质上是对“所属技术领域技术人员”和“现有技术”进行判断。算法技术方案中“所属技术领域人员”的判断难点在于算法可以运用在任何领域,除《国际专利分类表》中所列的8个技术领域以外,还涉及算法技术本身。而“所属技术领域人员”需要同时完全知晓该技术方案运用领域以及算法领域所有技术知识及掌握相关能力、获知所有现有技术,这是一种难以企及的状态。[vi]加之算法本身抽象多变,技术快速更新迭代,“所属技术领域”涉及的广度和深度不断拓展,将大大增加审查负担。
此外,现行专利披露标准主要依据我国《专利法》第二十六条第三款,发明人必须同时满足“书面描述”和“能够实现”两个条件,通过文字实现技术思想之间的转换。“书面描述”强调专利披露的载体和手段,“能够实现”强调结果,实质要求本领域普通技术人员按照“书面描述”的技术方案在不进行过度实验的情况下实施该技术方案,解决相关技术问题并达到预期技术效果。审查者需要在理解技术方案的基础上提取有效技术信息完成裁判,由于申请专利的技术方案往往涉及该领域内的新技术,审查难度不低。若“书面描述”内容不清或不完整,审查难度将大大攀升,审查员难以衡量技术方案是否“能够实现”以致算法专利披露不充分。
可解释人工智能是专门为解决算法理解问题而开发的人工智能技术,它无需算法公开即可透视算法,在保证算法高质量决策的同时,提供算法运行细节,使算法更加容易理解。可解释人工智能的事后可解释性技术是算法理解的重要解释策略。例如,[vii]文本解释(Text explanations)通过处理机器学习生成的文本来解释模型结果,有助于算法专利申请文书的理解。特征相关性解释(Explanations by simplification)利用算法模型的变量相关性来阐明模型内部功能,加深对算法专利的理解。可视化解释(Visual explanations)可视化模型行为,与其他技术结合以提高人类对算法的理解力。示例解释(Explanations by example)提取与模型生成结果相关的数据示例,解析模型内部关系和特征相关性。局部解释(Local explanations)用于解释系统的部分功能,有针对性的对技术方案难点问题进行重点解释。例如,通过LIME局部模型向算法模型提供扰动数据生成一个新数据集,根据新数据集训练出一个可解释代理模型,对算法模型的局部行为进行预测。[viii]简化解释(Explanations by simplification)在待解释模型基础上重建一个全新系统,降低待解释模型复杂性,提高审查效率。
三、可解释人工智能辅助实现算法可理解:助力算法专利披露
为实现算法可理解,有必要在算法专利披露过程中引入可解释人工智能,从现有专利披露标准上对算法理解难题做出回应。
首先,明确强调“算法可理解”在算法专利充分披露中的地位。可解释人工智能的引入是为了实现算法可理解,但技术引入需要制度支撑,现行专利披露标准侧重技术方案阐释,以“书面描述”和“能够实现”两个条件为充分披露的判断依据,并未明确强调“算法可理解”。实现算法可理解对算法专利充分披露至关重要。建议在《专利审查指南》第二部分第九章关于涉及计算机程序发明专利申请审查若干规定中第六条“包含算法特征或商业规则和方法特征的发明专利申请审查相关规定”6.1审查基准结尾加入“可理解”审查要求,修改为“在审查中,不应当简单割裂技术特征与算法特征或商业规则和方法特征等,而应将权利要求记载的所有内容作为一个整体,对其中涉及的技术手段、解决的技术问题和获得的技术效果进行考察,并注重对算法可理解的判断”。
其次,细化“现有技术”检索规定,采用人工智能技术辅助专利审查员。扩大“现有技术”检索范围,防止申请者恶意使用“同义替换”的方式生成“新型”技术方案。为应对扩大检索范围带来的检索压力,使用人工智能技术辅助专利审查员进行检索。必要时在检索过程中也可以对检索到的专利文件使用可解释人工智能技术,为专利审查提供参考依据,更精确地判断“最接近的现有技术”。
最后,对“本领域内技术人员”做扩大解释,其所指不仅包括《国际专利分类表》划分的类别,还包括算法专利技术本身所涉及的领域。以“一种基于惯导与卫星的路径规划算法”为例,该专利的IPC分类为“G01C21/20;G01C21/16;G01S19/47”,属于“G 部——物理”中的“G01:测量;测试”类专利。[ix]根据公开的专利申请文本,其不仅涉及“测量、测试”类技术,还涉及地理、计算机、算法等多方面知识,以单一领域知识理解该专利难度极大。对此,早有学者指出,创造性客观判断主体理应在所有技术领域内拟制普通技术人员,而非特定的技术领域。[x]在实践中,可通过设计完善的可解释人工智能模型对不同领域的算法专利进行解释,降低算法专利审查难度。此修改与可解释人工智能技术的引入相适应,有利于更全面的对创造性做出判断。
总之,专利充分披露是算法获得专利保护的条件之一,也是社会实现累积式创新的重要途径。算法是人工智能发展的重要基石,算法专利披露不充分可能阻碍人工智能产业的进一步发展。在大数据与人工智能时代,理解算法所需的工作量剧增,在不断训练、设计和调整过程中,算法无数次自我优化所产生的结果早就超出了工程师起初编写的内容。本质上,可解释人工智能利用技术手段降低模型抽象性简化模型输出,实现了算法可理解。[xi]在算法专利披露过程中,通过解析专利申请文件,揭示算法原理、化解算法理解难题,为创新推动、技术传播与社会监督提供有力支持。如尼采所说,反击不一定从外而来,真正的反击是深入对手内部,与对手在其最擅长的领域内展开较量。[xii]以可解释人工智能实现算法可理解,通过“算法规制算法”不仅是人工智能技术上的一次探索,也是走出算法理解困境的妥当答案。
[i] See Maayan Perel, Niva Elkin-Koren, Black box tinkering: Beyond disclosure in algorithmic enforcement, Florida Law Review, Vol.69, No.1, 2017.
[ii]参见苏宇:《算法解释制度的体系化构建》,《东方法学》2024年第1期。
[iii] See Tim Miller, Explanation in Artificial Intelligence: Insights from the Social Sciences, Artificial Intelligence, Vol.267, 2019.
[iv] See Explainable AI – how humans can trust AI”, https://www.ericsson.com/en/reports-and-papers/white-papers/explainable-ai--how-humans-can-trust-ai.
[v] See Elaine Kant, Understanding and automating algorithm design, IEEE Transactions on Software Engineering, Vol.SE-1, No.11, 1985.
[vi]参见《专利审查指南》第二部分第四章创造性第2.4条规定。
[vii]参见杨志航:《算法透明实现的另一种可能:可解释人工智能》,《行政法学研究》2023年第12期。
[viii]See Angelov, Plamen P. et al., Explainable Artificial Intelligence: An Analytical Review, Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, Vol.11, No.5, 2021.
[ix]一种基于惯导与卫星的路径规划算法[P].中国专利: CN117516549A. 2024年2月6日公开。
[x]参见吴汉东:《人工智能生成发明的专利法之问》,《当代法学》2019年第4期。
[xi] See Alejandro Barredo Arrieta, Natalia Díaz-Rodríguez ,et al., Explainable Artificial Intelligence ( XAI) : Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI, Information Fusion, Vol.58, 2020.
[xii]参见尼采:《查拉图斯特拉如是说》,孙周兴译,上海人民出版社,2016年,第244页。
声明:本文来自人工智能社会治理协同创新中心,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。