0 引言
近年来随着大数据技术的快速发展,我们正在进入“算法时代”。政府的行政活动甚至法律的执行也越来越依赖于算法。在行政活动中部署自动化决策的算法不仅使行政活动更有效率,而且更加准确和公平。从社会福利事业、刑事司法到医疗系统完善、国家安全等等,利用算法来实现自动化行政决策的领域不断扩展。算法决策过程的不透明和难以捉摸的制度往往不像法律制度中的其他公共行为者那样受到同样的问责或监督机制的制约,这就提出了它们是否符合行政法基本原则的问题,是否影响法治价值观,以及这些系统的实施和监督在实践中可能带来的法律和实际问题。
1 算法行政及其应用场景概述
算法自动化系统在政府行政活动中有着丰富的应用,在这些不同的决策环境中,决策自动化程度可能会随着决策范围的不同而变化,从所谓的“决策辅助”到“决策判断”。算法自动化决策不可避免地涉及到不同的计算机编程技术以及它们的技术组合。其中运作机理可以分为两个发展阶段。第一个阶段被称为人工智能(AI)阶段,这是一个遵循一系列预处理操作的过程,其实质是程序化规则的过程,用以反映人类在特定条件下以及特定领域中的反应。第二个阶段是指利用机器学习和深度学习等技术从收集或构建的数据中“学习”,以对新情况作出推论的阶段,这些推论可能是分类或预测。
行政机关借助此类算法开展行政活动,一方面技术优势可减轻工作负担和提高行政效率,另一方面技术为行政活动流程的再造提供了可能。政府部门负责就一系列直接影响个人和企业利益的问题作出决策。这些通常包括有关社会福利权利、税务责任、企业经营许可证以及环境和规划法规的决定。在这些领域,政府决策的主题和法律决策有很大的不同,但它们的共同点是它们都涉及政府将法律适用于一组特定的事实行为。算法和机器学习工具也越来越多地被用于在社会安全和执法方面进行行政自动化决策。算法和机器学习工具通常用于帮助分析员和决策者理解他们可获得的大量监控数据。
2 算法行政对行政法治的冲击
算法自动化对基本公法原则和价值观构成的核心挑战。在考虑算法自动化影响行政法治的方式时,在实践中实现这一目标,通常需要寻找一个更具体的标准清单。法治要求政府行为透明、负责任,法律面前人人平等。本节详述政府决策的自动化如何影响行政法治的具体内容。
2.1 算法行政对行政公开原则的冲击
自动化给透明度和问责制带来了重大挑战。美国学者Burrell总结出算法机器学习的三种“不透明形式”的弊端。首先,当算法被视为商业秘密或国家秘密时,故意保密可能会妨碍透明度要求的实现。例如在我国国家企业信用信息公示系统中,芝麻信用系统的操作细节并不清楚。虽然众所周知,它依赖于行为分析来计算信用评分,但个人无法知道他们的社交网络联系人使用了什么信息,也无法知道这些信息对他们分数的确切影响。同样拥有COMPAS等司法辅助工具的Northpointe公司也没有公开披露其开发方法司法判决中使用的算法工具的具体内容,因为该公司认为其算法是商业秘密。笔者认为在决策涉及个人自由等高风险的情况下,开源软件代码应该得到提倡。其次,技术鸿沟可能会对专家系统和机器学习的透明度和问责机制构成进一步的挑战,因为即使披露了算法操作的细节信息,也并不意味着大多数公众将能够从这些细节信息中提取有用的知识。此外,因为人脑的推理与机器推理的机制不同,即使经过适当的训练,政府部门也不能充分解释数据和算法之间的相互作用。这表明随着机器学习系统变得越来越复杂,对维护与保障法治实现至关重要的行政公开原则可能无法实现。
2.2 行政正义原则实现与否的风险
算法自动化决策对政府行政正义能否实现的挑战尤为突出。一般来说,政府机构的行政决策受到行政法的约束。许多行政法原则是建立在以下假设之上的:决策是由人做出的,而不是由自动化系统,行政决策者被要求提供程序公平或正当程序的证据,以救济因他们的决定而受到该决策不利影响的人,决策者通常也有义务为他们的决定提供理由说明陈述。因此,利用机器学习做出行政决定产生了行政正义实现与否的法律问题。第一,算法机器无法满足行政法的正当程序要求,程序正义法律原则适用不足使得算法自动化对这些行政正义的基本理念提出了挑战。第二,“行政决策”通常会涉及人类在通过公开行为表达结果之前得出结论的心理过程,这些系统依赖算法来处理应用程序和做出决策。对于行政决定的法律概念不能是静态的,技术已经改变了决定实际上是如何作出的,并且决定的各个方面或全部可以独立于人类的心理输入而发生。第三,利用算法实现行政正义的最大障碍之一是行政活动的规模和复杂性,以及运作行政决策所需的时间和资源。算法自动化过程通过提高行政决策的速度和降低成本,有可能打破或减少这些障碍。然而就目前的情况而言,任何这种自动化不仅必须符合行政法原则,而且必须符合更基本的公法原则。如果自动化决策继续被视为与正义和公平的基本理念不符,它将受到挑战和抵制,从而削弱它本来承诺的效率收益。第四,算法自动化行政减少法律适用中的任意性、消除偏见和消除腐败,但同样可能具备常识性不易察觉的潜在歧视,进而会损害行政参与主体的平等权利。
2.3 行政法律规则与算法标准的冲突
诸多实例证实借助算法来执法是可行的。法律推理具有逻辑性,逻辑操作又可以由计算机自动完成,那么把法律程序编写编码程序的做法能提高执法效率。如果采用这种做法,在断案时只需输入具体案件的相关事实。执行相关法律规定,就可以得出“正确”的判决结果。随着算法时代的发展,“法律规则”与“算法标准”的冲突不断升级。从广义上讲,所有法律都分属这两个不同的阵营,或者法律体系的两个极端。标准的主观性意味着人们在执行时需要仔细权衡,而规则是非此即彼的强制要求,几乎没有通融的可能性。与人不同,预先编程的系统不能无视它们被编程的规则。对于必须在现实生活中解决的情境问题,计算机的处理能力正在不断提升。由于人们在拟定法律条文时往往会受到大脑中那些算法与软件的影响,因此,随着这类法律越来越多,人们在处理法律相关问题时,对规则的依赖性也越来越大。不过,最根本的问题在于,尽管规则与标准是法律推理的彼此对立的两个极端,但它们同时也是两个抽象的概念。大多数规则都具有一定程度的“标准性”,而很多标准又具有这样或那样的“规则性”。尽管标准或许具有过多的主观性,但为了实现更广泛的社会目标,规则也会由于缺少灵活性而存在不尽如人意的地方。
3 以人为本的算法行政调适
算法行政的关键主体是人。以人为本的设计是一种设计和管理框架,它通过将人的主体角色纳入问题解决过程的各个阶段来开发问题的解决方案。在政府环境下开发和部署算法时,以人为中心的设计应牢记三个关键治理领域:单个层面的数据和算法、基于数据聚合开发的数据和算法以及协调不同利益相关者的影响。
3.1 贯彻以人为本的理念
算法行政的最终目的是更好地为人服务。一旦一个算法对人类生活产生重大影响,它有责任与那些将实施该算法的人进行协调,以确保那些了解伦理含义的人真正掌握并解决算法过程中存在的局限性。所有实际实现的算法都有一定的失败率,重要的是那些对算法做出决策的人要知道这些算法是如何失败的。以人为本的理念倡导将机器学习概念化为统计学的一个扩展。大多数人至少知道一些有关如何解释统计数据的信息,并理解他们给出的答案的局限性。因此,统计方法是我们利用现有数据得出可能结论的工具,这些结论受到所问问题的有用性和用于得出给定统计数据的限制。同样的,当我们将算法视为帮助我们根据先前数据做出决策的工具,告知我们的决策,而不是把它们的预测放在一个基座上并确保逻辑循环中的人总是从一个他或她意识到结论可能会受到质疑的位置来运作。
3.2 健全透明度影响评估制度
算法缺乏透明度是算法影响现有行政法治的核心原因。由于算法强调按部就班的程序,因此,法律编码化应该可以保证具体判决的跟踪、审核、验证工作更加简单明了。从理论上讲,算法可以详细地描述应用于每个小的决定之中的那些具体规则。但实际上,很多自动化系统都是不透明的,这个特点意味着它们可以规避审查。对于算法问责体系的构建,算法评估制度具有核心支柱功能。算法评估覆盖算法运行生命周期,使得问责点设置遍布平台运行事前、事中、事后,不同算法评估结果则可以对接不同算法的监管强度。此类影响评估已经在环境保护和隐私等广泛的科学和政策领域得到实施。影响评估是一种工具,用于分析一项计划的可能顺序,以便就如何部署该计划以及在何种条件下部署该计划提供建议。影响评估的关键要点人工智能的部署是为了确保在整个部署过程中,从设计、实施、使用到调整监控,考虑到利益相关者。影响评估不仅仅侧重于使用的影响,而是侧重于所有利益相关者的影响以及他们所处的社会。此外,不断发展的技术加上不断变化的社会、文化和政治背景,需要不断考虑在政府环境中使用算法开展行政活动。因此,必须允许利益相关者积极参与开发最新的治理方法。有了这些影响评估信息,所有利益相关者都可以考虑使用给定模型的适当性。这样的信息可以被不同的利益相关者用来考虑和质疑在特定情况下模型或模型的各个方面的使用。
3.3 推动行政相对人的监督与反馈
系统的设计仅考虑模型设计和决策是不够的,必须考虑到最终用户,包括考虑如何确保个人使用预测,而不是盲目地跟随预测。在这些情况下,设计师必须确保审计和人为审查的水平,不仅是利用人类决策者的预测。无数计算机编码的背后都存在类似的问题。错误的编码导致法律条文被严重扭曲,其效果也发生了改变。应在法律体系的整体框架下,审查和修改这些错误。在通过一项新的政策法规之前,应该听取对此感兴趣的人与政策制定者的意见,为他们留出时间,然后吸取这些意见,对新政策做出明确解释,并对各种意见做出回应。在经过这些必要的程序之后,新政策才能获准通过。而上述问题的症结在于其绕开了人们参与其中并提出专业意见的程序。因此,程序员们被赋予了过多的决策权,而且不会受到任何审查。人类参与的决策是关键考虑因素,特别是因为它们与政府行动和预测算法的使用有关。如上所述,算法的盲目使用让许多人担心这些使用对个人和社会的影响。欧洲的数据保护已经发布了这方面的指南。重要的是确保以下方面:人工评审员必须参与检查系统的设计,并且不应“常规地”将自动推荐应用于个人;评审员的参与必须是积极的,而不仅仅是一种象征性的姿态。他们应该对决策有实际的“恶意”影响,包括反对建议的“权威和能力”;评审员必须“权衡”和“解释”建议,考虑所有可用的输入数据,并考虑其他额外因素。透明和坚持审查、监督和审计使用的各个方面是至关重要的。
3.4 明确设计和部署人员的责任
设计和部署人员应当承担相应的责任。当算法机器学习总是在学习,以至于今天的输出看起来与明天的结果不一样时,谁来负责技术?设计和产品本身都使制造商承担潜在的责任。然而与产品责任类似,那些创建和部署技术的人应该预期到使用和更改,并且应该对合理的预期使用和更改负责。在这些情况下,如果存在下列情形:未实施法规要求的保障措施或者合理的安全措施;违约行为发生后,未对损害进行补救或者减轻损害的;当实体未能根据国家的数据泄露通知法规及时通知受影响的个人时,该实体可能要承担责任。当然,这些责任标准需要根据算法责任具体情况进行调整。责任可以在下列情况下实施:该实体未能披露用于决策、推动行为或以其他方式减少个人潜在选择的算法的使用情况;部署算法的实体未能实施保障措施或合理的审计能力;实体未能补救或减轻在目标受众中部署算法时出现的负面影响;部署算法的实体未能通知用户或受部署算法影响的用户对目标受众造成负面影响。对现有法规进行计算机编码的过程还有可能导致其他问题。把这些政策法规转变为算法的难度高,实施者在问题考虑与解决方法两个层面都简单易行的政策。如此发展下去,那些复杂的法规都将被过度简化,以提升法律事务自动化的效果。因此,仅仅通过技术来治理是不够的。
4 结束语
本文概述了政府在不同领域使用算法自动化决策的初步分类。政府部门因决策自动化而产生的大量问题和法律问题,包括其与法治等基本法律价值观的潜在不相容性,以及在国家安全和执法方面产生的具体问题。一方面,政府决策越来越自动化,另一方面,公法的基本价值观之间的紧张关系可能在未来升级。因此这两者之间的复杂交叉点迫切需要调查分析,并在决策者,政府和公众之间寻求共识。至关重要的是,还要对这些算法发展进行监管,使受政府算法自动化决策影响的个人有机会获得法律补救,促进决策符合基本的法律价值观和规范。
参考文献:
[1]吴汉东.人工智能时代的制度安排与法律规制[J].法律科学(西北政法大学学报),2017,35(05):128-136.
[2]查云飞.人工智能时代全自动具体行政行为研究[J].比较法研究,2018(05):167-179.
[3]夏菲.警务科技化进程中的公民权利保障[J].华东政法大学学报,2019,22(05):84-95.
[4]王贵.算法行政的兴起、挑战及法治化调适[J].电子政务,2021(07):2-14.
[5]J.Burrell,How the Machine “Thinks”:Understanding Opacity in Machine Learning Algorithms (2016) 3 Big Data Soc. 1.
[6]李广.电子政务中的行政正义问题研究[J].电子政务,2015(09):63-70.
[7]卢克·多梅尔.算法时代:新经济的新引擎[M].中信出版社,2016.第129页
[8]马长山.智慧社会背景下的“第四代人权”及其保障[J].中国法学,2019(05):5-24.
[9]张凌寒.算法评估制度如何在平台问责中发挥作用[J].上海政法学院学报(法治论丛),2021,36(03):45-57.
原文刊载于《互联网天地》2022年8期,陈鹏 秦登峰,作者单位:南京信息工程大学大数据法治研究院
声明:本文来自互联网天地杂志,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。