查云飞:算法的行政法属性及其规范

选择字号:   本文共阅读 3813 次 更新时间:2023-11-25 00:01

进入专题: 算法   算法行政权   算法公开   算法审查  

查云飞  

 

摘要: 算法已被广泛应用于干预或者给付行政场景。算法给行政带来了正向效益,也可能造成法治价值的失序。在规范算法方面,存在着治理工具论和权力控制论两种学说。治理工具论从法的外部视角出发,将算法作为法律的作用媒介,侧重于对算法本身的技术规制。权力控制论从法的内部视角出发,认为法律对算法的研究应穿透至算法背后的算法权力。在行政法体系内讨论算法,应在依法行政原理的支配下,通过明确算法的行政法属性实现对算法行政权的控制。算法作为一种“具有普遍约束力的决定、命令”,可被纳入行政规定的范围,若涉及外部性权利义务的分配,则算法属于法规命令。作为行政规定的算法应当以全面公开为原则、不公开为例外。可以将对算法的合法性审查嵌入到现有的审查机制中,从制定程序和内容两方面确保算法的合法性。只有从算法行政回归依法行政,才能找到合适的权力制约路径,从而实现数字时代行政法教义学体系的持续与稳定。

关键词: 算法;算法行政权;行政规定;算法公开;算法审查

 

引言

新时期法治政府建设正朝向数字化转型与改革迈进,《法治政府建设实施纲要(2021—2025年)》指出,应“坚持运用互联网、大数据、人工智能等技术手段促进依法行政,着力实现政府治理信息化与法治化深度融合,优化革新政府治理流程和方式,大力提升法治政府建设数字化水平”。数字化的核心在于有效利用数据,引擎在于算法。算法凭借模型架构能力和算力实现着对数据的占有、处理和结果输出。在网络世界的规则体系中,算法作为平台底层技术,不断推动着生产生活和社会治理的智慧化进程,直接且深刻地影响着经济、社会和国家秩序的发展。在此意义上,算法作为“科技之法”已转变为“国家与社会之法”。

新的治理范式能够带来正向效益,却也可能造成原有法治价值的失序,对此,算法应当在法治轨道上运行。从行政法治的角度而言,在关注“算法治理”的同时也要兼顾“治理算法”。针对网络私平台现有的算法乱象,行政机关作为立法主体已有所作为,国家互联网信息办公室(以下简称网信办)于2021年牵头发布了《关于加强互联网信息服务算法综合治理的指导意见》。该意见指出,算法的不合理应用已经影响了正常的传播秩序、市场秩序和社会秩序,给维护意识形态安全、社会公平公正和网民合法权益带来挑战。2022年,网信办又出台了《互联网信息服务算法推荐管理规定》,该规定旨在加强行政机关对算法推荐服务的监管职能。

然而,上述规定的监管对象均为平台私主体,其目的仅在于防范平台私主体应用算法推荐技术损害用户的合法权益,关于限制行政机关利用算法的专门立法仍尚付阙如。近年来,行政机关基于国家与社会治理目的也在不断创新和强化对算法的使用,被嵌入算法的行政权一方面展现出高效、便利等优势,另一方面逐渐呈现出膨胀、隐蔽、滥用等异化趋势。同时,在算法的支配下,公民更容易陷入集体性的“数字无意识”(Digital Unconscious)状态,从而沦为被算法调控的客体。[1]

基于上述理由,有必要从权力制约角度出发研究算法,讨论如何通过规范算法行政权保护算法时代公民的合法权益。本文的初步立场是,当算法与行政权深度结合时,需要法律加以规制的对象并非算法技术本身,而应当是算法行政权,即应从“权力制约”而非“技术规制”的角度研究算法。与聚焦于平台私主体的现有算法研究相比,本文着眼于研究算法在行政法体系中的定位,尝试从行为法视角出发将算法纳入行政法学框架,并从公开和合法性审查两个维度实现对算法行政权的控制。

一、作为治理工具的算法

行政受科技的影响由来已久。聚焦于行政法领域,在“算法行政”被提出之前,至少出现过“自动化行政”和“数字行政”的学理表达。名定而实辨,不同名称折射出行政在不同时期受科技带来的不同影响,这些名称在行政法层面亦存在着不同的理论难题。

(一)自动化行政、数字行政与算法行政

1959年,德国行政法学家蔡德勒(Zeidler)在其著作《关于行政的技术化》中预言,未来行政机关工作人员将被机器大幅替代,由此会产生机器所作意思表示的认定与所作行为的责任归属等法律问题。蔡德勒主张,应区分行政机关工作人员所作行政行为和机器所作行政产品,强调应对后者独立于人的意思表示予以特别规定。[2]“行政的技术化”一词被布尔(Bull)教授沿用,他在1964年出版的《借助机器所作行政》一书中同样讨论了新技术给行政带来的变迁以及由此产生的法治困惑。[3]此后,法社会学家卢曼(Luhmann)率先使用“自动化”一词反映行政新特点,其所著《公共行政中的法与自动化》一书从行政学视角分析了自动化行政给传统科层制带来的冲击。[4]受其影响,“自动化”一词逐渐从行政学领域进入行政法学领域。例如,西米蒂斯(Simitis)教授在1967年出版了《法秩序下的自动化——可能性及其界限》一书。该书在行政法学的视角下系统讨论了自动化给行政法治带来的挑战及其应对可能,该书的核心议题为如何在规模化行政处理的背景下继续确保个案正义。[5]从此,“自动化行政”跃升为行政法学科普遍使用的学理概念,指向大部分或者全部行政活动由机器完成的行政现象。“自动化行政”反映了计算机技术给行政系统带来的最初变化以及由此引发的相关学理思考,涉及的核心概念包括借助自动化设备作出的行政行为、电子行政行为、全自动行政行为等。与“自动化行政”相对应的还有行政机关数据处理能力的大幅提升。同时,由于行政系统掌握着大量包含公民个人信息的数据,为防范行政机关滥用信息技术处理个人信息,有关个人信息保护的法律规制亦得到了相应发展。

二十一世纪以降,随着移动互联网、云计算、大数据、物联网等新型技术与行政深度融合,“数字行政”的表述愈渐增多,行政系统亦迈入数字化转型阶段。“数字行政”主要归因于大数据技术的发展,作为国家战略下政府数字化转型的组成部分,其主要任务在于基础设施的数字化和政务应用的数字化。“数字行政”给行政法带来了许多新的问题,例如,如何看待行政机关运用大数据分析的方式为其决策和行动提供支撑?如何规范大数据检查、大数据调查等新型行为方式?如何避免对数据主义过于推崇导致人的客体化?数字行政是否具有权力正当性?如何通过数字化真正促进依法行政?以上皆为“数字行政法”需要着重回应的问题。[6]

“算法行政”与“数字行政”几近同时出现的原因在于数据与算法不可分离,对“数字行政”的研究必然涉及算法。“算法行政”是行政系统以自动化决策为主要机制,实现数据驱动型治理的一种方式。[7]从治理的角度讨论算法的原因在于,算法对现实世界产生了深刻的影响,“算法塑造和改变了人类的生活、对世界的认知、对其行为起决定作用,算法已渗入万物互联的现实世界”。[8]当算法与行政相结合时,可构建出一种建立在自动收集、汇总和分析大数据基础之上的权力运作模型,该模型能设计、预测和先发制人地影响他人的行为。[9]“算法行政”已然属于新型的国家与社会治理的方式。由此可见,“算法行政”是在治理语境下使用的概念,制定和使用算法属于“手段—目的”模式下的决策行为,算法是行政机关参与国家与社会治理的工具。

(二)算法的基本原理及其特性

对作为治理工具的算法进行研究,需着重分析其技术特性,为此,有必要先了解算法的基本原理。算法作为计算方法的简称,本身并非新生事物,其英文名得益于波斯数学家花拉子密的贡献,其中文名可溯源至中国最古老的天文学和数学著作《周髀算经》。虽然数学、逻辑学等学科中都有关于算法的描述,但是现在民众普遍理解的算法主要源于1940年代以降的计算机学,计算机学将算法理解为用于将输入转换为输出的一系列求解问题的指令。[10]简言之,通过计算机算法能实现数据的自动求解,通过输入原始数据能够自动获得输出的结果数据。

以是否具备自主学习能力为标准,算法可被划分为确定型算法和学习型算法两类。确定型算法遵循人为设定的规则,借助逻辑与符号系统事先设定计算程序,从输入到输出呈现出按部就班的线性特点。与之相比,学习型算法虽然同样遵循人为设定的规则,但是其模型通过不断学习既有数据,能够实现一定程度的自我完善。以学习能力的高低为标准,学习型算法又可进一步被划分为浅层学习型算法和深度学习型算法两类,前者使用的算法方法如回归分析、决策树、协同过滤、监督学习等,后者使用的算法方法如神经网络或者贝叶斯等。

对应上述算法概念,行政机关使用的算法可被称为行政算法。行政算法已被广泛应用于警务预测、市场监管、交通执法自动抓拍、疫情防控、社会征信、车牌摇号、学位分配等干预或者给付行政场景。例如,《国务院办公厅关于运用大数据加强对市场主体服务和监管的若干意见》就曾指出,“在研究制定市场监督制度和政策过程中,应充分运用大数据,建立科学合理的仿真模型,对监管对象、市场和社会反应进行预测,并就可能出现的风险提出处置预案”,此处的仿真模型就是该行政场景内进行大数据监管时使用的算法。以是否具备自主学习能力为标准,行政算法可被划分为确定型行政算法和学习型行政算法两类,前者如交通电子监控设备抓拍使用的算法,后者如健康码算法、信用评分算法。[11]当前,行政机关为实现分类排序、场景匹配、预测预警、搜索推荐、指令模拟、指令分发、任务追踪、成效评估等行政内容而使用的算法,基本为浅层学习型行政算法。

基于以上基本原理的阐述,可以发现算法具备三种特性。第一,算法并非计算机自行作出的指令,也并非计算机自行编写的代码,从实现过程看,算法需要人为设定规则,再委托技术人员编写代码进行代码实现,因此,算法具有属人性。在此意义上,有学者将算法合理界定为“人类和机器交互的决策,即人类通过代码设置、数据运算与机器自动化判断进行决策的一套机制”。[12]行政算法需要行政机关设定规则,再委托技术企业或者特定人员制定算法,该行为背后的行为主体和责任主体均为行政机关。第二,作为解决具体问题的方案或者行为准则,包括行政算法在内的所有算法都具有抽象性。算法可通过一般化模型批量解决具体问题,此时作为“人机交互决策机制”的算法具有抽象性的特点。第三,算法为执行大规模的重复任务而出现,其既可以被用于私主体之间的交易,也可以为公权力机关为管理和提供公共服务的目的使用。算法在制定之初已经被预设了一定的价值倾向(包括偏见倾向)或者经过了一定的利益衡量,这决定了算法既可能被“善用”也可能带来“恶果”。因此,算法表面具有的技术工具属性并不意味着算法的制定和使用具有中立性,算法的制定和使用必定内含某些价值倾向。

(三)算法作为法律的作用媒介

治理工具论更多地关注算法的技术工具属性而忽视了算法的规范属性,其根源在于治理工具论认为算法仅能作为法律的作用媒介,而非法律本身。

关于算法是否属于法律的争论,可回溯至劳伦斯·莱斯格(Lawrence Lessig)教授提出的“代码即法律”(code is law)[13]这句名言。对此,法理学界曾有过激烈争论,多数观点认为,法律与算法在内在本质上不同。[14]一方面,法律虽然有着一定的逻辑性,但是这并不意味法律必须要遵循严格的形式逻辑,法律实质上是通过形式逻辑的方式,实现减轻价值判断等非逻辑论证目的,法律归根到底是修辞的论证艺术。卢曼认为,“法律人思维过程的独特性表现在于,其并非严格地以形式逻辑化、程式化、或者可计算化的方式来处理法律相关的重要信息,而是给非程式化、非结构化的思维感觉留有了空间,尤其是法律正义感将引导作出决定”。[15]换言之,法律的解释与适用并非线性作业,而是目光流连往返式的构造理解过程。然而,算法的制定和使用仅建立在对过往大数据分析、建模、测试、运行的基础之上,属于面向过去的关联性统计和运算行为,而非面向未来的因果性判断。另一方面,法律使用的自然语言具有多义性,例如,在构成要件中立法者使用了大量的不确定性法律概念,在法律后果中也设置了一定的裁量空间,这些不确定的概念与裁量空间都需要法官在个案情景中作出解释与适用。基于以上两方面原因,法理学层面基本否定将算法作为法律对待。

治理工具论同样认为算法不能等同于法律,算法的功能仅在于促使法律发生作用,于法律而言算法仅是一种作用媒介。法律虽然经颁布后在形式上已经生效,但是仍需算法作为作用媒介以产生实效,组织、人员、资源以及算法技术等因素都可以促使法律产生立法者预期的效果。[16]行政法学界较早讨论算法性质的学者格罗斯(Groß)认为,与算法有关的编程活动并非简单地将法律逐一映射,其自身带有一定的决定空间。算法制定本质上属于对带有规范属性的行为准则进行代码转化,此类行为准则可以是任何层级的法源,算法可被视为“承载法规范的计算程序”(normativ aufgeladene Programme)。[17]格罗斯虽然承认算法制定具有一定的自主性,但是否认了算法本身的法属性,其认为算法作为一种作用媒介仅旨在促使法律产生更佳的效果。同时,算法带有强技术性,因此,算法也属于使法律产生实效的技术作用媒介。从系统论视角观察算法与法律的关系,算法代表的技术与法律分别属于两套社会子系统,彼此本质不同却可能存在着密切联系。例如,法律可以通过依靠算法更好地实现预期效果。然而,法律仅在技术层面上依靠算法,在价值内核上应与算法保持距离。[18]因此,治理工具论认为,算法对于法律而言仅能产生作用媒介的效果。

二、权力控制论下的算法属性

从法的外部视角进行观察,与算法有关的治理工具论展现了“算法治理—算法技术—算法作为法律的作用媒介”的逻辑关联。对于被用于国家与社会治理的算法,仅关注算法的技术特性,会使算法只能起到促进法律效果实现的作用。但是,若从法的内部视角进行观察,可能得出的结论又会有所不同。同时,只有从法的内部视角进行观察才可能实现算法的教义学归置。

(一)从治理算法到规范算法行政权

治理工具论对算法的研究必然侧重于技术规制路径,有学者认为,“算法规制的本质是对利用算法进行各种活动的风险规制”。[19]侧重技术规制路径的研究虽然具有启发性意义,但是也存在着一定的局限性。首先,技术规制路径未区分算法所在的场域,对私主体和公权力机关使用的算法无法进行一体化研究。其次,技术规制路径无法与现有行政法体系融贯,技术规制路径属于法外部视角下的研究方法,在探寻问题解决的路径上,其更关注社会事实层面。[20]但问题在于,外部视角的研究仅具有描述功能,不具有规范建构功能,治理工具论无法从法的内部视角对算法进行定性与归类。法学作为规范学科,须以应然为着眼点,考虑如何将实然之现象吸纳转化为现有的应然体系,通过持续不断的法理塑造,形成“规范上封闭、认知上开放”的教义学知识结构。[21]具体到本文的研究对象——算法,在实然层面,算法被视为国家与社会的治理之术或者规制手段,在“算法治理—算法技术—算法作为法律的作用媒介”的逻辑框架下,算法必定游离于规范之外,无法与现有的行政法体系相结合。然而,为了实现法秩序的持续与稳定,行政法学的体系化思考和学科体系建构不可或缺。[22]因此,应当思考如何将算法归入现有的行政法体系,该思考体现了行政法作为一门规范学科的方法论自觉。

法的内部视角的研究更加关注权利、义务、权力等范畴。有学者指出,对算法的研究应聚焦于算法权力,该种权力既体现为平台企业利用算法形成的私权力,也体现为行政机关利用算法形成的公权力。[23]因此,算法行政的本质在于,算法技术与行政权的深度融合使行政权产生了一种新的运作方式,即算法行政权。需要注意的是,算法行政权并非一类新的权力类型,数字时代“权力的本质属性并未发生改变,实际改变的是权力的运作方式,即对权力机制的重新构造”。[24]正如评分机制的引入使权力与算法紧密结合,算法行政权作为一种新型权力运作方式解决了具有高度流动性的大规模数字社会的管理问题。[25]算法强化了行政权的影响力与控制力,通过将算法内嵌于行政权,行政机关可以作出传统意义上无法作出的决策与行动,并且以低成本、隐蔽、高效的方式实现着对权力控制的普遍化与绝对化。[26]在行政法框架内讨论算法,目的在于实现对算法行政权的规训。然而,只有将算法从技术性概念转译为行政法上的规范概念,从关注治理工具意义上的算法转向研究规范意义上的算法行政权,才能获取合适的规范路径。于我国行政法而言,行政行为仍然是行政法主要的学科体系基点。对算法相关行为进行定性,不仅能够实现行政法对算法行政权的规训,也能使算法的行政法属性得到定性。

(二)算法属于行政规定

美国行政法学者科利亚尼斯(Coglianese)指出,自动化行政国家拥有两项特征行为,这两项特征行为分别是自动化规则制定(robotic rulemaking)和算法裁决(algorithmic adjudication)。[27]前者对应算法制定,后者对应算法应用,两者指向不同的行为类型。关于行政法上与算法有关的行为规范属性的讨论,存在着具体行为说和行政规定制定说之争。

1.具体行为说

具体行为说认为,在特定的应用场景中,算法能直接针对特定对象和特定事项施加影响。例如,交通信号灯作为自动化设备可对确定的交通参与人作出“红灯停,绿灯行”的命令,该算法行为在性质上属于一般行政处分。又如,税务机关事先开发网上办税系统,按各类税种将系列报表模块化,以使网上报税行为流程化,纳税人按照既定的流程操作,提交所需报表并自主完成所有申报或扣缴流程,最后系统自动打印完税凭证,此时的算法行为表现为全自动行政征税决定。

然而,具体行为说仅指向算法应用,忽视了在行政法上单独讨论算法制定的意义和算法本身具有的抽象特性。在该学说的支配下,算法本身的规范属性无从辨明。有学者指出,由算法产生的风险不仅反映于应用阶段,更表现为内生风险。[28]所谓内生风险,是指算法制定阶段产生的一般风险。算法为解决某类特定问题提供了一套可执行的方案,该方案指向了不特定的人和抽象的事项,在此意义上该方案可能具有一般风险。因此,对算法的研究首先应围绕算法制定阶段展开。

2.行政规定制定说

早在讨论算法属性之前,行政法学界就曾对行政机关设计电脑程序这一行为的性质有过讨论。二十世纪中期,欧美行政系统逐步引入自动化设备。德格兰迪(Degrandi)教授在1977年指出,行政机关在执行法规范时使用的电脑程序是为了针对不特定对象和不特定事项设计的,具有统一适用性与抽象性的特征。[29]至于在何种意义上具有抽象性,拉扎拉脱斯(Lazaratos)教授认为,设计电脑程序本质上属于行政机关对内作出的抽象指令,是为了指导或者规范其内部行为。[30]因此,德国行政法学界逐渐形成共识,认为行政机关为行政行为所用、带有执行性或者基准性的电脑程序具有行政规定的性质。[31]该观点也被我国台湾地区继受,例如,陈敏教授认为,在借助电脑作出行政行为之前,行政机关设计的能考虑各种事实或规范因素的电脑程序无异于行政规定。[32]行政规定制定说为算法在行政法上的属性定性提供了可借鉴的思路。算法具有抽象特征,从算法作为解决问题的抽象方案这一角度入手,算法或许可以被纳入行政规定的范围。

在实在法层面,行政规定属于1989年《中华人民共和国行政诉讼法》第12条规定的“具有普遍约束力的决定、命令”。根据2000年《最高人民法院关于执行〈中华人民共和国行政诉讼法〉若干问题的解释》第3条,“具有普遍约束力的决定、命令”应符合“针对不特定对象”和“反复适用”这两项特征,这两项特征也构成了行政规定的两项实质内容要素。[33]如前所述,研究算法首先应考虑算法制定阶段而非算法应用阶段。算法制定应旨在将待解决的问题抽象化。以防疫期间的健康码为例,健康码算法并非为针对特定主体以及一次性适用而制定,其针对的是不特定对象且具有反复适用性。因此,算法包含着“针对不特定对象”和“反复适用”这两项内容要素,具有抽象性。

既然实在法意义上的算法具有抽象性,那么算法属于何种抽象行为?行政法规和行政规章都有着严格的法定形式,且在内容上无法涵盖算法。行政规定作为“具有普遍约束力的决定、命令”,虽然在内容上有涵盖算法的空间,但是要将算法纳入其范围,首先需要澄清算法在行政规定要式方面存在的问题。行政规定的要式一般意味着应具备书面形式。通常情形下,算法以程序语言为表现形式,其能否满足行政规定的要式?根据《国务院办公厅关于加强行政规范性文件制定和监督管理工作的通知》的规定,行政规范性文件是由行政机关依照法定权限、程序制定并公开发布,具有普遍约束力且在一定期限内可反复适用的“公文”。公文由文件头、文件号、标题、主送机关、正文、发文机关署名、成文日期等部分组成,且公文套红印刷,因此,行政规范性文件也被俗称为“红头文件”。问题在于,行政规定是否必须以“红头文件”的书面形式出现,是否只有“红头文件”才符合行政规定的要式?

行政规定作为行政机关制定和发布的具有普遍约束力的行政规范,并不会受到书面形式的约束,其功能的兜底性决定了其形式的多样性。[34]虽然“书面公文”属于行政规定的主要形式载体,但是行政规定的形式表现本身具有多元化的特质。随着电子政务的兴起,行政规定的形式载体亦与时俱进,国家档案局于2003年就曾发布《电子公文归档管理暂行办法》(现已修订),其中第2条就引入了“电子公文”的概念,该概念意味着公文可以电子数据化的形式呈现。算法的形式载体可以是自然语言、流程图、伪代码或者程序语言,前两类形式载体既可以书面化也可以电子数据化的形式呈现,后两类形式载体只能以电子数据化的形式呈现。因此,以计算机程序语言表述算法,也符合行政规定的要式。

综上所述,在区分算法制定与算法应用的基础上,算法制定属于行政规定制定行为,行政算法属于代码化的“具有普遍约束力的决定、命令”。电子数据化形式为引入算法类行政规定扫清了要式方面的障碍,算法也因此能够满足行政规定的要式,行政算法可以被纳入行政规定的范围。

(三)算法属于法规命令

尽管法理学层面的一般讨论已经否定了算法的法律属性,但细加分析就会发现,现有的否定观点存在着错位和过于绝对两类局限性问题。首先,法理学层面的讨论实际指向了法律的解释与适用能否被算法化的问题,但该讨论并不妨碍对算法本身是否具备法规范性问题的证立。在算法制定意义上,若通过算法针对不特定对象设定权利义务,算法的法规范性便可能存在。有学者已经观察到了算法的法规范性,其将“公权力算法”区分为“立法性算法”和“非立法性算法”两类。[35]其次,算法应用阶段法律的解释与适用不能被完全算法化,并不会妨碍算法制定阶段算法与法律的共通性。原因在于,人类颁布法律意在将所欲实现之任务结构化,而算法恰好擅长以逻辑结构分解步骤,两者相得益彰,完全可以将“条件—结果”模式的法规范结构算法化。法律自然语言与机器语言能够折射出共同的理性主义基础。法律踏入科学之门后,逐渐自我构建为一座由概念、规则、原则搭建的理性主义灯塔,公理、数理与法律之间不再有所区隔,“法律具有算法属性并不令人惊讶,因为现代法律总体而言以理性主义为基础,而算法同样是理性主义的结晶”。[36]

算法具备法规范性,正是由行政规定的法规范性决定的。以是否具有外部效力为标准,行政规定可以被划分为法规命令和行政规则。涉及私人权利义务调整的规定属于法规命令(具有外部效力),仅指向行政机关内部组织或者程序运行的规定属于行政规则(不具有外部效力)。[37]大陆法系的行政法一般否认行政规定属于法规范,例如,德国法上的行政规定是行政机关在行政保留余地范围内制定的“一般—抽象”命令,主要是行政机关内部上级机关对下级机关制定的组织性或者程序性规则,因此不属于法规命令而属于行政规则。[38]但我国的行政规定更多的是由于“法不够用、法不实用、法不能用”的现实困境而被制定出的,作为行政机关行使职权的主要依据而存在。[39]无论是创设性规定、解释性规定还是执行性规定,在涉及行使外部行政职权、调整私人权利义务的内容上发挥功能时,行政规定皆具备法规范性。因此,当行政算法作为行政规定调整外部行政法律关系时,其同样属于法规命令,而非行政规则。

三、算法作为行政规定之公开

算法可归属于行政规定,行政法中对算法公开的讨论,亦应回到行政规定公开的原理与制度框架中。不过,算法在形式上毕竟不同于传统的规范性文件,由此产生的疑问是,算法的公开是否存在技术障碍?应当将算法公开至何种程度?算法公开是否需要进行相关的利益衡量?

(一)对算法黑箱的否定

讨论算法公开无法回避算法黑箱的问题。所谓算法黑箱,是指算法制定主体以外的人对算法的模型结构、调用数据、算法测试等内容无从获悉。因无法观察或者理解算法,算法制定主体以外的人处于完全的被决定者地位,沦为被算法决定的客体。[40]关于算法黑箱是否存在,有着肯定说与否定说两种学说。

肯定说认为,算法黑箱由算法的技术特性造成。[41]在制定算法时,即便某一种算法方法的计算逻辑较为清晰,当若干算法方法组合搭配时,其分析处理数据的过程以及数据集之间的复杂变量关系也将变得难以被直观呈现或者解释。所需解决的问题愈趋复杂,算法的复杂性愈强。并且,算法制定一般由多位技术人员合力完成,若再考虑机器通过训练数据集不断学习后对算法的调整优化,算法将无限“黑箱化”。

否定说认为,算法黑箱并非由技术决定,而是由算法制定主体主导。算法制定主体故意以技术的复杂性为借口人为地不公开算法,“在很大程度上,算法黑箱是刻意保密的结果,是人为制造的,是权力的表达而非算法的本质”。[42]卢曼甚至指出,现代社会运作本身不透明,因为“所有的高级生命形态、相关意识以及社会沟通体系并非低级机器”。[43]换言之,作为高级生命形态的人本身才是黑箱,机器相对于人更能被理解与把握。[44]

诚然,算法黑箱的肯定说强调了现代计算机技术的复杂性,代码相对于自然语言更具有专业性,每一种算法方法背后都由不同的数理规则和逻辑规律支撑,由算法方法叠加形成的算法模型结构似乎愈发导致了算法公开的不可能性。然而,现阶段的问题在于,复杂的算法技术是否已经完全脱离了人类的控制?只要机器学习尚未到强智能阶段,算法黑箱就并不绝对。就现阶段而言,算法技术存在的主要问题是算法公开的难易程度问题,而并非算法技术复杂性上的无法公开问题。[45]算法作为解决特定问题的方法步骤,其形式载体可以是自然语言、流程图、伪代码或者程序语言。这也意味着可以通过上述形式进行算法公开,其中的自然语言、流程图能被一般人理解,伪代码与程序语言对于专业人员而言也并不会构成理解上的障碍。事实上,目前的行政算法仍然以确定型行政算法和浅层学习型行政算法为主。这些类型的算法可按照制定者的意图排列组合及运行,其所谓学习能力仅表现在对测试数据模拟训练后对算法进行的完善优化上,其本身尚未达到强人工智能阶段的机器能够自行制定算法的程度。因此,当前所谓算法黑箱更多是源于代码的专业性壁垒,虽然代码对于非专业人员而言意味着较高的知识壁垒,但算法并非完全不可理解。

(二)全透明公开优于说理公开

既然算法公开在技术层面并无障碍,那么在规范层面上是否存在着应当公开算法的正当性基础?如果存在,又应当如何公开算法?

首先,行政机关负有主动公开行政规定的法定义务。中共中央、国务院2015年印发的《法治政府建设实施纲要(2015—2020年)》指出,“涉及公民、法人和其他组织权利义务的规范性文件,应当按照法定要求和程序予以公布,未经公布的不得作为行政管理依据”。传统的行政规定都以书面规范性文件的形式发布,经审议通过或批准,由制定机关统一登记、统一编号、统一印发,并及时向社会公布。另外,《中华人民共和国政府信息公开条例》(以下简称《政府信息公开条例》)第20条第1项也规定了行政机关应当主动公开“规范性文件”,该规范性文件属于该法第19条规定的“涉及公共利益调整、需要公众广泛知晓或者需要公众参与决策的政府信息”。基于此,作为行政规定的算法同样应当被主动公开。

其次,算法毕竟不同于公文式的规范性文件,算法由一系列复杂代码组成,是否应当公开与算法相关的所有信息?主张全部公开者认为,既然在技术上可以实现算法公开,那么应当将算法的源代码、规则、函数、数据集等所有技术内容全盘托出,否则无法真正地监督行政。[46]即便理解代码仍属少数人的“专利”,但技术外行也可借助专家实现对算法代码的透视。科利亚内塞(Coglianese)和莱尔(Lehr)将全部公开形象地比作“鱼缸”般的全透明公开,即公民、法人或者其他组织可从外部直接透视算法的全部细节。此种公开方式更有利于公众及时地获取政府信息,充分保障公众知情权,同时也能更有效地监督行政机关依法行政。[47]反对全部公开者认为,行政机关只需公开算法的核心要素即可,理由如下:第一,算法并非所谓大众知识,若只有少数人能够理解算法,算法公开也只能保障少数人的知情权;第二,算法的源代码、规则、函数、数据集等内容可能涉及国家秘密、商业秘密或者个人隐私,基于利益衡量的考虑无法将算法全部公开。[48]进言之,反对全部公开者认为,更合理的公开方式应当是说理式公开,即行政机关只需说明算法的核心要素,这些核心要素包括目的要素(算法要实现的行政目的)、依据要素(算法依据的法规范)、规则要素(算法制定的基本规则)、效果要素(输出数据是否符合预期效果)、救济要素(对算法产生异议时的救济方式)等。

笔者认为,从依法行政的原理出发,按程序正当的要求,原则上应当全面公开行政规定,这符合《政府信息公开条例》“提高政府工作透明度”的立法目的,也符合“以公开为常态、不公开为例外”“及时、准确公开”等原则。然而,需要指出的是,全透明公开并不意味着应公开所有的行政算法,也并不意味着完全忽略利益衡量。首先,内部行政中运行的算法无需公开,算法公开仅需公开外部行政意义上的算法,因为前者并不直接影响公民、法人或者其他组织的合法权益。其次,全面公开也得兼顾利益衡量,当涉及国家秘密、商业秘密或者个人隐私时,行政算法可以不被公开。针对作为私主体的算法推荐平台,当前《互联网信息服务算法推荐管理规定》选取了较浅层次的算法解释路径,即说理公开。出于商业秘密保护的考虑,该规定仅要求平台对算法的基本原理、运行机制、应用场景、目的意图等进行简单说明,并没有要求平台就算法数据与算法逻辑进行深度阐释。[49]但在行政领域,除少量算法可能涉及国家秘密,行政算法一般不会涉及商业秘密。因此,行政算法只需在兼顾个人隐私保护的基础上进行全面公开,行政算法不应在源头处对公开进行全面限制,较浅层次的算法解释无法满足公众对行政权进行实质监督的要求。

此外,“政府信息”是行政机关在履行职责过程中制作或获取的,以一定形式记录、保存的信息。《国务院办公厅关于做好政府信息依申请公开工作的意见》第2条进一步规定,行政机关向申请人提供的政府信息,应该是现有的,一般不需要行政机关汇总、加工或者重新制作(作区分处理的除外)。说理公开要求行政机关额外提供有关算法承载目的、依据、规则、效果和救济要素等方面的信息,这需要行政机关另行加工制作。换言之,此时说理公开的对象并非已经记录或者保存的政府信息,这将额外加重行政机关的负担,不利于保障行政效率,也不符合《政府信息公开条例》中的制度安排。基于上述理由,在行政法领域,与其从算法解释即说理公开的路径出发,不如直接依据现行法,要求行政机关原则上全面公开算法。

(三)算法公开的例外

作为行政规定的算法属于行政机关应主动公开的政府信息,有关利益衡量亦应遵循《政府信息公开条例》的规定。政府信息公开区分了绝对不公开的和相对不公开的两类信息,绝对不公开的信息包括国家秘密、法律与行政法规禁止公开以及公开后可能危及“三安全一稳定”的政府信息,相对不公开的信息则关涉商业秘密或者个人隐私。涉及国家秘密或法律、行政法规禁止公开的信息,因其具有明确的形式依据可供判别,因此在算法的绝对不公开问题上并不存在任何特殊性。[50]“三安全一稳定”作为高度不确定的法律概念存在如何解释的法律难题,但这与算法公开本身的关联性并不大。与算法公开有关的讨论集中于相对不公开的信息类型,即商业秘密或者个人隐私保护是否构成阻却算法公开的理由?

在私法领域,互联网平台的算法是平台的核心商业秘密,这也成为否定以模型为中心进行算法公开的理由之一。关于算法与商业秘密之间的关系,我国现行法对此已有相关规定。《中华人民共和国反不正当竞争法》(以下简称《反不正当竞争法》)第9条第4款将商业秘密界定为“不为公众所知悉具有商业价值并经权利人采取相应保密措施的技术信息、经营信息等商业信息”。同时,《最高人民法院关于审理侵犯商业秘密民事案件适用法律若干问题的规定》第1条第1款已明确将算法作为一种智力活动的规则与方法纳入作为商业秘密的“技术信息”范畴。域外也有法院以保护商业秘密为由作出拒绝公开算法的民事判决,例如,在德国,要求一家征信企业公开算法的民事请求没有获得联邦普通法院支持的原因在于,征信算法构成企业的核心技术信息,公开征信算法不仅会影响该企业的市场竞争地位,还可能会造成搭便车或者形成“算法算计”等不利局面。[51]同样是基于保护商业秘密的考量,《互联网信息服务算法推荐管理规定》第16条仅要求算法推荐服务提供者“以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等”。

与私法领域不同,如果行政机关使用算法旨在实现公共利益,则该行政算法能否受商业秘密条款的保护,主要取决于行政机关与被委托开发算法的技术公司之间的协议约定。《反不正当竞争法》第9条指向的商业秘密保护主体仅为“经营者”,并不包括行政机关,因此只有在协议约定算法归属于技术公司时,才涉及商业秘密保护的问题。若没有特别约定,则行政算法归属于行政机关,此时将排除商业秘密保护而仅剩国家秘密保护之可能。

此外,个人隐私保护也可能构成算法不公开的理由。[52]算法调用的数据集可能包含个人信息,行政机关在进行算法公开时应尊重和保护个人的信息权益。为取得公共利益与个人利益之间的平衡,应分情况进行处理:若算法中的个人信息可以被去识别化或者匿名化处理,则应当处理之后全面公开;若无法被去识别化或者匿名化处理,则仅可公开个人信息之外的其他信息。[53]

四、算法的合法性审查机制与要求

法律保留原则要求行政机关作出的行政行为应当有法可依,行政规定可以弥补法律、法规或者规章的不足,作为法依据为行政行为提供规范支撑。同时,行政规定应当满足法律优先原则,只有符合上位法时,行政规定才能被参考适用。作为行政规定的算法同样应当经得起合法性审查的检验。

(一)现有审查机制的嵌入

2008年《国务院关于加强市县政府依法行政的决定》要求市县政府及其部门建立健全规范性文件监督管理制度。截至目前,我国在行政规定方面已经形成了全覆盖、全流程、立体式的审查机制。对作为行政规定的算法的合法性审查,完全可以被嵌入到现有的合法性审查机制中。从主体看,包括政府、人民代表大会和人民法院在内的国家机关都有权监督审查行政规定。

首先,根据《中华人民共和国宪法》(以下简称《宪法》)第108条的规定,县级以上的地方各级人民政府有权撤销所属各工作部门和下级人民政府的不适当的决定。根据审查阶段的不同,可将行政机关对包括算法在内的行政规定的审查分为合法性预审和事后审查。早在1976年,德国教授霍伊斯尔(HeuΒer)就曾提出建议,对计算机程序进行预防性审查可以避免事后的权利侵害。[54]为减少或者杜绝算法制定的随意性,行政机关可以将算法的合法性审查制度化,形成算法合法性预审机制。算法实施后,行政机关可以依职权或者依申请进行合法性审查。例如,行政机关应当依职权定期清理算法,对不符合法律、法规、规章规定,或者相互抵触、缺失依据以及不适应经济社会发展要求的算法,予以修改或者废止。同时,公民、法人或者其他组织若认为存在算法违法情形,有权向行政机关提出审查请求。

其次,省级以下地方人民政府制定的行政规定应当及时按照法定程序和时限报送本级人大常委会备案,根据《宪法》第67条第7项、第104条的规定,本级人大常委会有权撤销本级人民政府不适当的决定和命令。审查的前提在于备案。需要注意的是,行政算法备案与一般的平台算法备案在性质上截然不同。《互联网信息服务算法推荐管理规定》要求具有舆论属性或者社会动员能力的算法推荐服务提供者履行算法备案义务,该要求在性质上属于行政备案。而行政算法备案属于立法备案,应当与现有的人大备案审查制度相衔接。在备案内容方面,《互联网信息服务算法推荐管理规定》提出了最低限度的备案要求,包括填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息。出于全面监督行政的考虑,行政机关应承担更全面的备案义务,报备算法的全部内容。

最后,根据《最高人民法院关于适用〈中华人民共和国行政诉讼法〉的解释》第100条第2款的规定,法院在审理行政案件时,可以在裁判文书中引用合法有效的规章及其他规范性文件,该司法解释还在第145条规定了规范性文件的一并审查制度。如前所述,算法作为行政规定亦可能属于法规命令,其应当属于法的组成部分。在行政法法源体系中,行政规定的位阶低于规章的位阶。法院在司法裁判中可以根据审理案件的需要对作为行政规定的算法进行合法性审查,若算法合法有效,则可将算法作为认定行政行为合法的依据,反之则不可将算法作为行为法依据对待。[55]

(二)算法制定程序的法定化

为控制算法制定过程,美国学者希特伦提出了“技术性正当程序”(technological due process)的概念,以统摄有关自动化决策系统在透明性和可问责性方面的程序基本要求。[56]在此基础上,我国有学者进一步提出了程序法和算法双重变奏的主张,即在传统程序控权机制之外,从算法制定的源头构建“技术性正当程序”。[57]此种主张虽然考虑到了行政法的技术发展趋势,但是忽略了行政法体系对算法制定本身的吸纳可能,而且作为行政规定的算法需遵守的并不是个案意义上的排除偏见、说明理由、听取意见等程序。在我国行政法制度和行政法教义学框架内,算法制定应当遵守制定行政规定的法定程序。

2018年《国务院办公厅关于加强行政规范性文件制定和监督管理工作的通知》对制定行政规定作出了原则性安排,即必须严格依照法定程序制发,对于重要的行政规定,还需严格执行评估论证、公开征求意见、合法性审核、集体审议决定、向社会公开发布等程序。至于如何理解“重要”,有学者提出应结合制定主体层级高低、内容涉及面是否广泛、涉及事项是否重大等标准进行综合判断。[58]在此基础上,从权利保护的角度考虑,判断是否“重要”时或可进一步参考比较法上的“重要性理论”。行政规定越可能对相对人的权利造成严重损害,行政规定越重要。比如,健康码的行政算法广泛涉及公民人格权、行动自由、劳动权、受教育权等重大权利,因此应当将健康码行政算法归属于重要的行政规定。对照制定重要的行政规定应遵守的程序要求,诸如健康码一类的行政算法应当严格遵守以下制定程序:

第一,制定该类算法应公开征求意见并经专家论证。公开征求意见作为公众参与的直接体现,不仅反映了行政算法制定的民主性,也保障了其科学性与合法性。行政机关在与技术公司共同制定算法时,应当邀请利益相关的多方主体参与讨论,充分听取多方主体的意见建议,这些主体包括但不限于人民团体、社会组织以及群众代表。鉴于算法本身具有较强的专业性与技术性,算法制定应组织专家或者专业机构论证其必要性、可行性和科学性。

第二,在制定该类算法过程中还应当进行风险评估。[59]面对现代社会的高度复杂性和不确定性,行政机关如果在具体危险出现之后才介入,未免为时已晚,只有在早期就对潜在的危险源有所行动才可避免对法益的损害。在算法制定过程中引入风险评估制度,正是建立在风险预防的理念基础之上,从源头预防算法可能引发的系统性风险。算法制定过程中的风险评估义务主体为行政机关,但行政机关可委托制定算法的技术公司以外的专业第三方进行风险评估。[60]算法风险评估的内容涵盖技术安全、社会稳定、公共安全、个人信息保护影响等,评估结果为判断可否将算法投入应用的重要依据。

第三,制定该类算法还必须经过合法性审查。《国务院办公厅关于加强行政规范性文件制定和监督管理工作的通知》要求在制定行政规定的过程中,行政机关应当建立一套“程序完备、权责一致、相互衔接、运行高效的行政规范性文件合法性审核机制”。合法性审核机制必不可少,行政机关除了审查算法制定程序是否符合法定权限、法定程序,还应当重点审查算法内容是否合法。

第四,应及时公布通过集体审议的算法。集体审议有利于确保算法的可行性与合法性。集体审议要求将对算法机制的详细描述、调用数据的类型与范围、征求的公众和专家意见、风险评估结论以及合法性审查意见一并提交行政机关常务会议或全体会议讨论,由行政首长在集体讨论审议的基础上作出是否通过算法的决定。然后,应当及时公开发布被通过的算法,算法未经公布不得作为行政机关作出行政行为的依据。

(三)算法内容的合法性

算法的实体合法性涵盖制定机关的法定权限、依据和算法内容等方面。算法和一般的行政规定在法定权限、依据方面的合法性要求上并无区别,算法合法性的特殊之处在于,其内容部分得注意避免技术性错误、主观偏见和客观偏见这三方面的合法性瑕疵。

第一,算法本身可能存在技术性错误。在自动化行政中,行政机关负有担保设备符合标准、精确可靠的义务。[61]同样,算法制定过程中使用的算法模型也应当精确可靠,否则结论将不具有参考价值。在“何凯案”中,法院直接将技术审查作为合法性审查的一部分,并发展出了三方面的审查基准,即形成过程、明显性和实际效果审查。[62]详言之,形成过程审查属于程序性审查的内容,即审查技术性设备在被投入运行前是否经过了充分的论证和检测;明显性审查主要是考虑设备是否存在明显违反逻辑和科学性的情况;实际效果审查是指设备投入运行之后,是否存在诸如申诉之类的大量异议的情况。法院在“何凯案”中建立的审查三基准,为算法技术性审查提供了可借鉴的思路,算法应当经得起形成过程、明显性和实际效果审查的检验,前者在算法制定程序中已被涵盖,后两者与算法内容相关。

第二,算法作为问题解决的一般方案,必定带有问题解决者的主观目的,对算法模型的设计与被调用的数据的类型都由参与算法设计的主体决定,由此将可能产生算法的主观偏见问题。[63]除了防止行政机关恶意设计算法,算法设计还得防范其对身份特征类数据的不当使用,因为身份的标签化已经蕴含着一定的主观偏见。身份标识与个人信息相关,这就意味着,行政机关不得任意使用身份标识,使用身份标识时应当遵守合法、正当、必要的原则。

此外,行政机关在处理公民个人的性别、种族、民族、宗教信仰等身份特征类数据时,还应当注意宪法上关于平等权的保护要求。平等权保护分为绝对保护和相对保护,诸如性别、种族、民族、宗教信仰等属于被绝对保护的数据,应对它们采取严格的保护立场。例如,2017年德国颁布了《航空数据法》,该法一方面授权民航总局比对航空数据与指定数据库,以识别个人是否存在实施犯罪的嫌疑,另一方面又强调行政机关构建的算法模型应当遵守平等权的保护要求,必须排除歧视性标准,以确保不得出歧视性的结论,尤其是性别、种族、民族、宗教信仰等身份特征类数据不应出现在算法模型中。在我国行政实践中,行政机关特别是公安机关已经习惯了使用身份特征类数据实现行政目的,应在立法上纠正此种现象。立法者应在具体场景中承担事先的利益衡量义务,确立禁止使用上述身份特征类数据的原则以及例外情形下可以使用的具体规则。

第三,与主观偏见问题相对应,由于行政算法必然与大数据技术相结合,而大数据的逻辑为归纳逻辑而非演绎逻辑,其注重统计关联而非价值判断,故若数据本身存在质量问题,则可能产生算法的客观偏见问题。为防范与纠正算法的客观偏见,《中华人民共和国电子商务法》对个性化推送类算法作出了限定,要求电子商务经营者在为消费者提供有关商品或者服务的大数据推送时,应同时提供不针对个人特征的选项。然而,在行政法领域,个性化推送类算法较为鲜见,更为常见的外部性行政算法主要被应用于预测预警、比对、评估等方面,其本身追求结论的客观性。由此产生的问题在于,如何在确保算法结论客观性的同时又避免出现“信息茧房”的不良效应?在算法制定层面,该问题的解决或可指向算法对数据利用的模型以及被调用的数据本身。一方面,算法的模型结构应当多维选取数据。大数据的优势在于,不仅能分析结构化数据,还能对非结构化数据予以关照。为避免仅依赖结构化数据得出偏见结论的不良后果,算法模型可以适当引入多样的、实时的非结构化数据。另一方面,为确保数据的完整性、准确性、时效性和可用性,行政机关应当提供多种途径,使数据主体能及时对涉及自身的数据提出异议或者提出校核申请。同时,应建立数据全流程质量管控体系,及时更新数据,将算法客观偏见可能导致的不利影响降至最低。

结语:从算法行政回归依法行政

按照卢曼的观点,法律系统使用的二元符码为“合法—非法”,为获得自身的“符号性自治”,法律系统会将外部环境转化为法律系统之内的条件性命题。正因如此,行政法的体系化是将技术革新带来的外部实践及其变化不断符码化的过程。无论是自动化行政、数字行政抑或本文讨论的算法行政,都只具备描述内在或者外在现象的功能,仍须回归行政法的学科体系,以我国现有的“规范—原理”进行法的“纯化”。如今,算法与行政权的结合形成了一种新的权力运作方式,即算法行政权,其更重视规模而非个案,更追求效率而牺牲个体权利,更具有技术表象而容易掩盖责任。为防范原有的法治价值失序,仍应从依法行政原理出发,以行政行为为基点,通过行为的类型化实现对算法行政权的控制。依据行政规定制定说,算法作为一种“具有普遍约束力的决定、命令”可被纳入行政规定的范围。基于此,作为行政规定的算法应当以全面公开为原则、不公开为例外,对行政算法的审查可被嵌入既有的对行政规定的审查机制,从制定程序和内容两方面确保算法的合法性。本文对算法所作的教义学归类,无非是基于技术应受价值支配的理念,本文认为以数字化促进法治化的前提首先是数字化本身的法治化。为此,对算法的研究未必需要舍近求远,无需被技术概念迷惑,只需从算法行政回归依法行政。

 

注释:

本文系国家社会科学基金一般项目“自动化行政程序的理论基础与规则构建研究”(22BFX167)的阶段性成果。

[1] Vgl. Niklas Luhmann, Recht und Automation in der ?ffentlichen Verwaltung: eine Verwaltungswissenschaftliche Untersuchung,1966, S.30.

[2] Vgl. Wolfgang Hoffmann-Riem, Verhaltenssteuerung durch Algorithmen: eine Herausforderung für das Recht, A?R 142(2017), S.6.

[3] Vgl. Karl Zeidler, über die Technisierung der Verwaltung,1959, S.14.

[4] Vgl. Hans Peter Bull, Verwaltung durch Maschinen: Rechtsprobleme der Technisierung der Verwatlung,1964, S.1.

[5] Vgl. Spiros Simitis, Automation in der Rechtsordnung-M?glichkeit und Grenzen,1967, S.18.

[6] 关于“数字行政法”这一部门行政法的生成背景,参见于安:《论数字行政法——比较法视角的探讨》,《华东政法大学学报》2022年第1期,第7-9页。

[7] 参见张欣:《算法行政的架构原理、本质特征与法治化路径:兼论〈个人信息保护法(草案)〉》,《经贸法律评论》2021年第1期,第27-31页。

[8] Wolfgang Hoffmann-Riem, Verhaltenssteuerung durch Algorithmen: eine Herausforderung für das Recht, A?R 142(2017), S.4.

[9] 参见虞青松:《算法行政:社会信用体系治理范式及其法治化》,《法学论坛》2020年第2期,第40页。

[10] 参见[美]托马斯·科尔曼、查尔斯·雷瑟尔森、罗纳德·李维斯特、克利福德·斯坦:《算法导论》(第三版),殷建平等译,机械工业出版社2013年版,第3页。

[11] 个人信用评分算法大致经历了从统计学方法到非参数方法、从运筹学方法到人工智能方法的演变过程。参见张涛:《个人信用评分的地方实践与法律控制——以福州等7个城市为分析样本》,《行政法学研究》2020年第1期,第119页。

[12] 丁晓东:《论算法的法律规制》,《中国社会科学》2020年第12期,第141页。

[13] [美]劳伦斯·莱斯格:《代码2.0:网络空间中的法律》,李旭、沈伟伟译,清华大学出版社2018年版,第6页。

[14] 关于该观点的相关讨论,参见魏斌:《智慧司法的法理反思与应对》,《政治与法律》2021年第8期,第113-114页。

[15] Niklas Luhmann, Recht und Automation in der ?ffentlichen Verwaltung: eine Verwaltungswissenschaftliche Untersuchung,1966, S.58.

[16] Vgl. Wolfgang Hoffmann-Riem, Rechtliche Rahmenbedingungen und Regulative Herausforderungen durch Big Data, in: Wolfgang Hoffmann-Riem (Hrsg.), Big Data-Regulative Herausforderungen,2018, S.10.

[17] Vgl. Thomas Gro?, Die Informatisierung der Verwaltung: Eine Zwischenbilanz auf dem Weg von der Verwaltungsautomation zum E-Government, VerArch 95(2004), S.400.

[18] 参见蒋超:《法律算法化的可能与限度》,《现代法学》2022年第2期,第31页。

[19] 苏宇:《算法规制的谱系》,《中国法学》2020年第3期,第166页。

[20] 参见谢晖:《论法学研究的两种视角——兼评“法教义学和社科法学”逻辑之非》,《法学评论》2022年第1期,第21页。

[21] 参见[德]卢曼:《法律的自我复制及其限制》,韩旭译,李猛校,载《北大法律评论》编委会编:《北大法律评论》(第2卷第2辑),法律出版社1999年版,第446-469页。

[22] 参见赵宏:《行政法学的体系化建构与均衡》,《法学家》2013年第5期,第35-37页。

[23] 参见周辉:《算法权力及其规制》,《法制与社会发展》2019年第6期,第116页。

[24] 周尚君:《数字社会对权力机制的重新构造》,《华东政法大学学报》2021年第5期,第18页。

[25] 参见胡凌:《数字社会权力的来源:评分、算法与规范的再生产》,《交大法学》2019年第1期,第22页。

[26] 关于算法嵌入公权力的异化风险,参见张凌寒:《算法权力的兴起、异化及法律规制》,《法商研究》2019年第4期,第67-70页。

[27] 参见[美]卡里·科利亚尼斯:《自动化国家的行政法》,苏苗罕、王梦菲译,《法治社会》2022年第1期,第48页。

[28] 关于算法在应用阶段和制定阶段产生的两种风险,参见林洹民:《自动决策算法的风险识别与区分规制》,《比较法研究》2022年第2期,第191页。

[29] Vgl. Benno Degrandi, Die Automatisierte Verwaltungsverfügung,1977, S.76.

[30] Vgl. Panagiotis Lazaratos, Rechtliche Auswirkungen der Verwaltungsautomation auf das Verwaltungsverfahren,1990, S.209.

[31] Vgl. Wolfgang Hoffmann-Riem, Gesetz und Gesetzesvorbehalt im Umbruch: Zur Qualit?ts-Gew?hrleistung durch Normen, A?R 2005, S.59.

[32] 参见陈敏:《行政法总论》,新学林出版有限公司2019年版,第710页。

[33] “行政规定”的立法表达始见于1999年《中华人民共和国行政复议法》第7条第1款,本质上与1989年《中华人民共和国行政诉讼法》第12条规定的“具有普遍约束力的决定、命令”相同。

[34] Vgl. Markus Mostl, Verwaltungshandeln und Verwaltungsrechtsverh?ltnis, in: Dirk Ehlers /Hermann Punder (Hrsg.), Allgemeines Verwaltungsrecht,15. Aufl.,2016,§20 Rn.23.

[35] 参见刘佳明:《公共决策算法的程序规范——以立法性算法为例》,《财经法学》2022年第3期,第18页。

[36] 蒋舸:《作为算法的法律》,《清华法学》2019年第1期,第67页。

[37] 参见朱芒:《论行政规定的性质——从行政规范体系角度的定位》,《中国法学》2003年第1期,第36页。

[38] 参见[德]毛雷尔:《行政法学总论》,高家伟译,刘兆兴校,法律出版社2000年版,第591页。

[39] 参见章剑生:《健全行政规范性文件制定发布机制》,《法治日报》2022年4月15日,第5版。

[40] Vgl. Thomas Wischmeyer, Regulierung Intelligenter Systeme, A?R 2018, S.48.

[41] Vgl. Wolfgang Hoffmann-Riem, Verhaltenssteuerung durch Algorithmen: Eine Herausforderung für das Recht, A?R 142(2017), S.29.

[42] 刘东亮:《技术性正当程序:人工智能时代程序法和算法的双重变奏》,《比较法研究》2020年第5期,第70页。

[43] Niklas Luhmann, Die Kontrolle von Intransparenz,2017, S.102.

[44] Vgl. Thomas Wischmeyer, Regulierung Intelligenter Systeme, A?R 2018, S.45.

[45] 也有学者认为,现阶段的深度学习型算法具有不可解释性。参见魏斌:《智慧司法的法理反思与应对》,《政治与法律》2021年第8期,第118-119页。

[46] Vgl. Thomas Wischmeyer, Regulierung Intelligenter Systeme, A?R 2018, S.53.

[47] See Cary Coglianese and David Lehr, “Transparency and Algorithmic Governance”, Administrative Law Review, Vol.71, No.4(Winter,2019), pp.32-37.

[48] Vgl. Mario Martini, Algorithmen als Herausforderung für die Rechtsordnung, JZ 2017, S.1017.

[49] 2022年8月12日,网信办通过《国家互联网信息办公室关于发布互联网信息服务算法备案信息的公告》公布了第一批“境内互联网信息服务算法备案清单”。从内容来看,该公告仅要求算法推荐平台进行较浅层次的算法解释。

[50] 我国并没有法律、行政法规禁止行政算法公开,比较法上有禁止行政算法公开的相关规定,例如,德国《税务条例》第88条第5款第4句规定:“当公开将导致征税不平等或违法时,不应公布税务风险管理系统的具体技术细节。”

[51] BGHZ NJW 2014,1237(1239).

[52] 虽然2008年开始实施的《政府信息公开条例》使用了“个人隐私”一词,但该词并非仅指私密信息。从立法原意出发,彼时条例中的“个人隐私”等同于现行《民法典》第1034条中规定的“个人信息”。

[53] 关于在政府信息公开决定中隐去个人信息以实现利益平衡的具体案例,参见齐明喜诉上海市松江区人民政府等复议案,最高人民法院行政裁定书(2017)最高法行申312号。

[54] HSGb 1976,245(247).

[55] 法院在“原告陈才明不服被告綦江县社会保险局具体行政行为案”中认为:“内容与有关法律法规和上级行政规定不相抵触,是合法有效的行政规定,应作为本案法律适用的参考依据。”原告陈才明不服被告綦江县社会保险局具体行政行为案,重庆市綦江区(县)人民法院行政判决书(2011)綦法行初字第22号。

[56] See Danielle K. Citron, “Technological Due Process”, Washington University Law Review, Vol.85, No.6(2008), pp.1249-1313.

[57] 参见刘东亮:《技术性正当程序:人工智能时代程序法和算法的双重变奏》,《比较法研究》2020年第5期,第72-78页。

[58] 参见王万华:《推进“一带一路”建设中的行政法问题初探》,《经贸法律评论》2020年第1期,第66页。

[59] 此处的风险评估也被称为影响评估。参见张欣:《算法影响评估制度的构建机理与中国方案》,《法商研究》2021年第2期,第103页。

[60] 2019年4月,美国国会通过了《2019年算法问责法案》,强制要求相关主体针对高风险自动决策系统进行风险评估。参见周游:《我国亟待建立人工智能算法审查机制》,《中国计算机报》2018年5月14日,第12版。

[61] 例如,《中华人民共和国行政处罚法》第41条规定,行政机关依照法律、行政法规规定利用电子技术监控设备收集、固定违法事实的,应当经过法制和技术审核,得确保电子技术监控设备符合标准,如此才可能真实、清晰、完整、准确地记录违法事实。

[62] 参见何某诉上海市公安局黄浦分局交通警察支队交通行政处罚案,上海市高级人民法院行政判决书(2019)沪行终204号。

[63] 2014年5月,美国白宫发布的《大数据:抓住机遇,保护价值》报告认为,受数据来源特定性和算法制定者主观意图的影响,算法自动化决策往往会产生隐形的主观偏见,从而系统性地减少个人获得信贷、就业和教育的机会。

 

查云飞,法学博士,浙江大学光华法学院讲师。

来源:《法制与社会发展》2023年第6期。

    进入专题: 算法   算法行政权   算法公开   算法审查  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 宪法学与行政法学
本文链接:https://www.aisixiang.com/data/147512.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统