黄锫:数字平台算法侵害的行政法律责任论纲

选择字号:   本文共阅读 3022 次 更新时间:2024-02-25 16:34

进入专题: 数字平台算法  

黄锫  

摘要:  数字平台算法侵害包括信息操控类、标签设定类、数据收集类和技术缺陷类四种理想类型。数字平台算法侵害行政法律责任设置的法理基础是数字平台的公共性导致算法侵害行为会对公共利益造成影响,而行政法律责任的设置较之民事法律责任更能有效地维护公共利益。为了应对人工智能算法的普遍应用,数字平台算法侵害行政法律责任的责任主体应设定为平台企业。数字平台算法侵害行政法律责任的责任方式主要包括“接受行政处罚”和“改正违法行为”两种类型,这两种行政法律责任方式都应采用无过错责任的归责原则。

关键词:  数字平台 算法侵害 行政法律责任 责任主体 归责原则

 

 随着互联网时代数字平台的日益普及,算法成为数字平台治理的主要工具。各类数字平台通过算法的协助,能够对平台上不断增长的信息数据进行自动化收储、分析与处理,大幅度提高信息数据处理的效率,为平台用户提供更好的服务。但是,算法在提供便利的同时,也呈现了其双刃剑的特性。由于经营数字平台的企业(以下简称“平台企业”)作为营利性的组织,天然具有最大化自身利益的倾向。因此在这种倾向的驱使之下,算法也会成为平台企业谋取最大化利益的工具,被用来过度摄取平台用户的消费者剩余,满足自身对利润的无止境索求。于是,诸如“大数据杀熟”“信息茧房”“算法标签”“算法归化”等现象频频出现,不断侵蚀着平台用户的合法权益,这也就是所谓的“数字平台算法侵害”。

数字平台算法侵害随着数字经济的不断发展而日益频繁发生,对平台用户权益侵害的事例也层出不穷,由此引发了法学领域对数字平台算法侵害问题的关注,开始探讨通过法律的途径对数字平台算法实施必要的规制,以保护平台用户的合法权益。目前学界将对数字平台算法侵害的法律规制区分为事前规制和事后规制两种研究思路,其中对数字平台算法侵害事前规制的研究占主流地位,主要探讨数据源头规制与个人赋权制衡的规制路径、算法程序性规制的路径(包含算法公开、算法可解释性、算法审计、算法影响评估等)。[1]而对于数字平台算法侵害事后规制的研究则方兴未艾,引发了越来越多的关注。所谓数字平台算法侵害的事后规制,是指设定数字平台算法侵害的法律责任,对实际发生的数字平台算法侵害行为予以制止和惩戒,追究平台企业的法律责任,要求其纠正算法侵害行为并防止其再犯,从而保护平台用户的合法权益,引导平台企业的算法向善。也即,在对数字平台算法侵害的事后规制中,法律责任问题占据了中心地位,“它是要求赔偿和行使惩罚权的正当性基础”。[2]

从法理上来说,法律责任可以区分为民事法律责任、行政法律责任和刑事法律责任三种主要类型。[3]其中民事法律责任属于私法责任,行政法律责任和刑事法律责任属于公法责任。这三种类型的法律责任都可以实现对数字平台算法侵害的事后规制,不过,学界现有的相关研究主要集中在数字平台算法侵害的私法责任(民事侵权责任)上,而对于数字平台算法侵害的公法责任,特别是行政法律责任的理论研究则相对较少。与此形成鲜明对比的是,我国立法实践中关于数字平台算法侵害的成文立法不断出现,其中设定了大量的数字平台算法侵害的行政法律责任。典型如2022年3月1日正式实施的《互联网信息服务算法推荐管理规定》(以下简称“《算法推荐管理规定》”)就是一部由多部门联合制定的、专门规制数字平台算法侵害的部门规章,其中设置了多种不同类型算法侵害的行政法律责任。此外,在我国个人信息保护法、数据安全法、网络安全法等数字经济基础性法律中也有许多涉及数字平台算法侵害行政法律责任的相关规定。数字平台算法侵害行政法律责任在立法上的不断丰富客观上要求在学理上应对其进行必要的探讨,以便为完善相应的行政法律责任体系提供必要的理论支撑。

由此,本文着重研究数字平台算法侵害行政法律责任的基本理论框架。首先,探讨数字平台算法侵害的理想类型,区分不同情形的数字平台算法侵害行为,这是研究其相应行政法律责任问题的前提;其次,探讨立法中设置数字平台算法侵害行政法律责任的法理基础,分析其与数字平台算法侵害私法责任(民事法律责任)的差异之处;再次,探讨数字平台算法侵害行政法律责任的责任主体问题,指出平台企业是最为适宜的行政法律责任主体;最后,探讨数字平台算法侵害行政法律责任的归责原则问题,从而勾勒出完整的数字平台算法侵害行政法律责任的基本理论框架,以期为我国数字平台算法侵害的法律规制提供一些智识上的贡献。

一、数字平台算法侵害的理想类型及其共同特征

算法是指“一种有限、确定、有效的并适合计算机程序来实现的解决问题的方法”,[4]它的本质是解决问题的数学过程。[5]算法在传统的网络科技领域中属于纯粹的技术工具,但是随着数字经济的迅速发展,平台用户数量呈现几何级数增长,算法已经开始呈现出权力的特性,也即学者所说的“算法权力”。[6]平台企业通过运用算法权力能够为自身谋取更多的利益,并在此过程中利用与平台用户之间的高度信息不对称对用户的合法权益造成损害。[7]平台企业运用算法侵害平台用户的方式多种多样,并且随着网络技术的发展呈现不断增加的趋势,因此,为了研究便利起见,我们可以运用韦伯式的理想类型分析方法,将数字平台算法侵害依据主要特征的差异区分出不同的理想类型,作为进一步剖析其行政法律责任体系的前提。具体而言,可以将数字平台算法侵害区分为四种理想类型。

(一)信息操控类算法侵害

信息操控类算法侵害是最常见的数字平台算法侵害类型,主要是指平台企业利用自身在收储信息数据方面的优势,通过操控平台信息数据流来实现自身收益的最大化。这类数字平台算法侵害的具体表现形式主要包括“编织信息茧房”[8]与“大数据杀熟”[9]两种情形。“编织信息茧房”是指平台企业通过算法收集分析平台用户浏览痕迹的信息数据,发现平台用户的真实偏好并据此持续推送类似信息,将平台用户纳入到类似信息的“茧房”中,诱导平台用户持续沉迷于同类信息数据流中无法自拔,从而延长在特定平台的浏览时长,增加数字平台的流量数据。“大数据杀熟”则是指平台企业通过算法搜集、分析平台用户的个人数据,发掘并根据平台用户精确的支付意愿与偏好数值设定相同商品与服务的差异化价格,充分榨取平台用户的消费者剩余,实现自身收益的最大化。这两种算法侵害都是平台企业基于自身对平台信息数据的实际控制而实施的行为,因此称之为信息操控类算法侵害。

(二)标签设定类算法侵害

标签设定类算法侵害是指“算法利用大数据对个人进行风险评估与分类,将人们归入不同的风险群体,形成身份标签,并将这种身份标签在数字世界留存、流转、再利用,从而将身份标签固化为数字时代的个人身份污点”。[10]平台企业运用算法对平台用户的过往历史行为数据进行分析,能够发现平台用户可能具有的特定风险点(如财务风险、违法风险等),并据此将特定用户归入不同的风险群体,将其贴上特定的风险身份标签。这些特定的风险身份标签会成为伴随平台用户从事各类社会经济活动的数字刺青,在网络社会不同的数字平台中存储、流转,从而降低平台用户的社会评价,对平台用户声誉产生隐秘且持续的负面影响。更有甚者,如果平台企业使用算法所分析的用户数据本身存在缺陷(如包含种族、性别歧视的数据),就会产生“偏见进,偏见出”(bias in,biaso out)的算法歧视效果,[11]对平台用户的合法权益产生实际损害。[12]

(三)数据收集类算法侵害

数据收集类算法侵害是指平台企业运用算法超过必要的限度收集平台用户的各类行为数据,并将这些数据作为自身从事数字经济活动的生产要素加以利用。随着互联网技术和平台经济的不断迭代更新发展,数据已经成为基本的生产要素。平台企业耗费巨资搭建的数字平台往往会免费向平台用户开放使用,但这并不是出于平台企业大公无私的社会责任感,而是希望通过免费的途径吸引更多的平台用户,增加数字平台的流量,并由此获取平台用户的行为数据。在此意义上,平台用户免费使用的数字平台其实并非真正的免费,而是用自身的行为数据换取了平台企业提供的服务。并且,由于数据的价值与其规模大小成正比,数据规模越大,其蕴含的价值也就越高。因此,平台企业就有动力运用算法违反“最小必要原则”[13]过度收集平台用户数据(特别是个人信息数据),这就可能会对平台用户的权益产生潜在的损害。

在数据收集类算法侵害中,平台企业除了对平台用户的数据会过度收集之外,还可能对数字平台用户以外的主体的数据进行过度收集。例如,提供摄像头云存储平台的企业可能会通过平台用户在线下安装的摄像头,无限制地收集平台用户周围人群的数据(如人脸识别数据),这就构成了对平台用户以外的社会主体信息数据的过度收集。这种对数据的过度收集会导致人们因担心个人身份信息的泄露而限制或减少自身在相关区域的活动,出现所谓的“算法归化”现象。[14]例如,我国曾出现有人因为担心自身的人脸生物识别信息被收集,而带着头盔去售楼处看房的事例,这就是算法归化产生的不利影响。[15]

(四)技术缺陷类算法侵害

技术缺陷类算法侵害是指因数字平台算法编码偏差、模型设计缺陷或数据质量问题导致算法决策结果的错误,给平台用户造成人身或财产的实际损失。典型如自动驾驶汽车的平台算法缺陷导致交通事故的发生,或物联网平台算法错误导致实体生产线发生故障等。此类数字平台算法侵害目前通常被归入产品质量缺陷的范畴予以法律规制,但本质还是属于数字平台算法的技术缺陷导致的损害,因此可以将其称为技术缺陷类算法侵害。技术缺陷类算法侵害可以细分为两种下属类型:其一是因技术发展的客观水平限制产生算法侵害。这种技术缺陷类算法侵害受制于科学技术发展程度的约束,属于在当下的技术边界内无法克服与避免的情形,具有类似于不可抗力的法律内涵。其二是算法的设计开发主体或部署应用主体基于主观上的过错,因编写错误的程序代码、输入缺陷的训练数据、违反正确的操作流程等行为而导致的侵害。在这两种技术缺陷类算法侵害中,后者是法律规制中需要重点关注的对象。

以上四种理想类型的数字平台算法侵害涵盖了数字平台算法对平台用户或其他主体的合法权益造成损害的主要情形,我们可以将它们理解为算法违法行为的客观构成要件,是承担相应法律责任的必要前提。从这四种数字平台算法侵害的理想类型中,可以发现它们具有的一些共同特征,包括:其一,数字平台算法侵害的产生通常都是与信息数据的运用密切相关,是平台企业通过算法工具不当处理信息数据而发生的损害;其二,数字平台算法侵害通常都不会直接产生物理性质的损害后果,而是通过各种媒介间接地对平台用户的权益造成实质损害,即使是技术缺陷类的算法侵害也是通过硬件设备的故障才会对用户造成物理性损害后果;其三,信息不对称的问题贯穿数字平台算法侵害的成因之中,在这四种类型的数字平台算法侵害中都能找到信息不对称的阴影,平台企业主要就是基于信息不对称关系中的强势地位而实施数字平台算法侵害的行为。在区分这四种数字平台算法侵害理想类型的基础上,就可以进一步探讨设置数字平台算法侵害行政法律责任的法理基础。

二、数字平台算法侵害行政法律责任的法理基础

目前对数字平台算法侵害法律责任的研究主要集中在民事法律责任上。从数字经济领域中最基本的法律关系角度而言,平台企业与平台用户之间是典型的民事法律关系。平台用户在平台注册时通过同意相关格式合同条款与平台企业达成法律上合意,在意思自治的前提下利用数字平台从事各类社会经济活动。而平台企业则依据自身拟定的格式合同条款的约定,为平台用户提供各类网络服务,与平台用户形成了平等主体之间的民事法律关系。因此,当平台企业运用算法侵害平台用户的权益时,所产生的责任自然也就主要是民事法律责任。那么,为何要在立法中设定数字平台算法侵害的行政法律责任?这一问题的答案也就是设置数字平台算法侵害行政法律责任的法理基础,对此可从两方面论述。

(一)数字平台的公共性与算法侵害对公共利益的破坏

在数字平台的早期研究中,曾有观点认为数字平台只是中立的技术中介,属于“纯粹的管道”,仅仅只是传输信息而不创造信息。[16]根据这一观点,数字平台只是企业经营的一种特殊场所,与传统的大型购物中心的区别主要在于没有实体的展示区域,只是将交易物品信息放置在网络上而已。于是,平台企业也就顺理成章地被认为是单纯的信息服务提供商,与传统经济中的普通企业并无太大的区别。然而,随着数字经济的不断发展与扩张,这种观念逐渐被摒弃。这是因为,数字平台已经越来越多地体现出与传统经济中组织形态的相异之处,这些差异可归纳为“数字平台的公共性”。

何谓数字平台的公共性?理论上一般认为“公共性”的本质在于社会共同体的合作,“保障社会化大生产,增进社会更大范围的合作,促进有效率的生产和协作,才是公共性本体论的根本”。[17]社会成员之间的合作是社会共同体存在的基石,在鲁滨逊式的孤岛之上之所以不存在社会共同体,就是因为鲁滨逊没有其他社会成员可以达成合作关系,只能作为个体在与自然环境的斗争中挣扎生存。而在一个社会共同体中,社会成员之间的合作能够产生超越个体的力量,从而更好地在自然环境中生存与发展。正因为如此,现代社会普遍都是以共同体形式存在。社会共同体的发达程度也取决于社会成员之间的合作程度,合作程度越密切就意味着共同体的发达程度越高,“合作是社会秩序生成和延续的关键所在”。[18]可见,任何有助于促进社会成员之间广泛合作关系发展的事物都意味着具有“公共性”,数字平台的公共性也正是体现在其对于社会成员之间合作关系的促进功能上。

数字平台对合作关系的促进功能主要体现在以下几点:其一,数字平台通过对平台用户中供需各方信息的汇总,能够成为供给端与需求端之间的信息桥梁,使平台用户超越物理空间的局限性,极大地降低供需各方发现对方的信息成本,促进平台用户间的合作。其二,数字平台基于自身中立地位为平台用户提供高效、便捷、可信的网络工具,增进平台用户间的互信,提高达成合作的可能性。典型如电商平台提供诸如支付宝此类支付工具,为电商平台上交易双方提供可信的资金流转中介,极大地增强了平台用户通过电商平台达成交易合作关系的可能性。其三,数字平台利用算法技术对平台用户的行为数据进行深入分析,可以发掘用户的真实偏好并为其推荐适宜的合作对象,这能有效地增进平台用户之间基于自身真实偏好而达成的合作关系。由于数字平台所具有的技术特性与网络效应,[19]它能够承载的平台用户的数量在理论上是没有上限的,因此以上三种对合作关系的促进功能会随着平台用户数量的增加而不断增强,这也就意味着数字平台的公共性具有随着平台用户扩张而持续强化的特质。

数字平台公共性的存在意味着平台企业的算法决策“既具有公共决策的性质,也具有企业自主决策权的性质”,[20]由此平台企业实施的算法侵害行为在对平台用户个体权益产生危害的同时,也会对公共利益产生危害。虽然公共利益是一个不确定的法律概念,对其内涵需要依据场景的不同进行解释,但是,如果从上述公共性本质的角度而言,可以将公共利益的基本内涵理解为社会成员间协同合作推动社会共同体向好发展的一种状态。[21]因此,阻碍社会主体间合作关系的产生实际上就是对社会公共利益造成损害,数字平台算法侵害也正是由于其会阻碍社会主体之间合作关系的达成而对社会公共利益产生了损害。

具体而言,平台企业作为以营利为目的的市场主体,最大化自身利益始终是其无法变更的组织底色。当平台企业出于自我利益最大化的冲动利用数字平台算法对平台用户的权益造成侵害时,也会对社会成员间合作关系的达成造成负面影响。这主要表现在:其一,在信息操控类算法侵害中,平台企业编织的信息茧房实质上缩小了平台用户可以接触信息的广度,从而减少了与不同主体达成合作的可能性。而平台企业实施的大数据杀熟行为则会降低平台用户对数字平台的信任度,会通过减少数字平台使用频率甚至退出数字平台的方式避免被再次杀熟,这其实也就是减少了平台用户与平台企业或其他平台用户达成合作关系的可能性。其二,在标签设定类算法侵害中,平台企业为平台用户设定身份标签的行为通常都是在用户不知情的情况下实施的,这种身份标签像是一种人为制造的数字“刻板印象”,[22]深深烙印在平台用户的身上,并可能会伴随平台用户从事各类数字经济活动的始终。其他数字经济的活动主体将会根据平台用户的身份标签对与该用户未来的合作关系作出风险判断,一旦作出否定性的判断,那么自然会降低与该用户的合作可能性。其三,在数据收集类算法侵害中,平台企业对平台用户数据的过度收集会导致用户产生对自身个体隐私信息或商业数据泄露的担忧,由此减少通过数字平台实施的社会经济活动,减少通过数字平台与其他社会主体的交流,从而也就减少了与其他社会主体达成合作的可能性。其四,在技术缺陷类算法侵害中,算法的开发设计主体或部署应用主体滥用算法工具导致平台用户的物理性损害会使平台用户产生畏惧心理,减少乃至避免使用数字平台从事社会经济活动(如拒绝使用自动驾驶汽车),从而降低了利用数字平台高效地与其他社会主体建立合作关系的可能性。

可见,无论何种类型的数字平台算法侵害,在对平台用户的个体权益产生损害的同时,都会产生阻碍社会主体之间合作关系达成的迟滞效应,这也就是对社会公共利益的侵害。由此,设置数字平台算法侵害的行政法律责任就凸显出其存在的必要性。

(二)数字平台算法侵害行政法律责任对公共利益的保护

就法理而言,行政法律责任属于公法责任,其目的主要就是为了维护社会的公共利益,它比作为私法责任的民事法律责任能够更好地维护公共利益。由此,数字平台算法侵害行政法律责任的设置也能够更有效契合数字平台的公共性特征,较之相应的民事法律责任更能有效保护公共利益。

详言之,法律规范体系本质上是由主权国家立法机关制定的行为规则体系,主要通过设定各类社会主体在法律上的权利和义务来促进人们之间合作关系形成,从而构建理想的社会秩序,促进社会经济的发展。法律权利设定了人们行为的“可为模式”,法律义务则设定了人们行为的“应为模式”和“勿为模式”,两者共同设定了人们的应然意义上的行为模式。[23]法律上的权利与义务具有相辅相成的属性,法律权利的实现有赖于法律义务的履行,“没有义务,就没有权利”,[24]且法律权利的侵害通常源自对相关法律义务的违反。由此,法律权利的保护是法律规范体系的核心,而法律义务的履行则是保护法律权利、实现法律秩序的必要条件。[25]

同时,法律义务的履行不能完全寄希望于义务主体的自觉,而更有赖于法律责任的设置,没有法律责任的强有力保障,法律义务的履行将可能会沦为空谈。[26]因此,现代主权国家的立法机关都会针对各种法律义务设置相应的法律责任,一旦社会主体拒绝履行法律义务,也即实施了违法行为时,就可以由执法机关追究其相应的法律责任,要求其纠正违法行为、弥补受害者损失并对违法者进行惩戒,使其承受实施违法行为的“报应”并威慑其他潜在的违法者,维护法律秩序的存续。

依据法律规范调整的法律关系主体地位的不同,法律义务可以区分为私法义务和公法义务,对应的法律责任也可以区分为私法责任与公法责任,它们之间存在着重要的区别:私法义务中设定的是社会主体相对于其他个体的行为义务,义务面向的是特定的个体,目的主要在于保护个体权利。因此相应的私法责任也主要是为了保护个体权利,弥补个体因违法行为而遭受的损失。典型如民事法律规范中设定民事法律义务的主要目的就是为了保护个体权利,相对应的民事法律责任的主要内容就是弥补其他个体的损失(违约赔偿、侵权赔偿等)。[27]公法义务中设定的则是社会主体对于群体的行为义务,义务面向的是多个个体组成的特定群体,目的在于形成社会共同体的合作秩序,保护公共利益。[28]因此,相应的公法责任也主要是为了维护公共利益,确保社会共同体合作秩序的存续。[29]典型如行政法律规范中设定的行政法律义务的主要目的就是为了维护公共利益、维系社会主体间合作秩序的存续,相对应的行政法律责任的主要内容是对违法主体进行惩戒、产生必要的威慑,修复并维护被破坏的社会合作秩序。[30]

依据以上关于法律责任的基本法理,设置数字平台算法侵害行政法律责任的法理基础就在于算法侵害行为不但是对平台用户个体权益的侵害,更是对社会公共利益的侵害。而如上所述,行政法律责任就是为了维护社会公共利益而存在的法律责任类型,因此设置数字平台算法侵害行政法律责任的主要功能和目的就在于防止算法侵害行为破坏社会共同体的合作秩序,维护社会公共利益。

相较于民事法律责任,行政法律责任的设置更有利于对公共利益的维护。这是因为,行政法律责任的追究比民事法律责任的追究更具效率。民事法律责任的追究一般都是在实际损害结果发生之后,权益受到损害的个体无法获得加害方主动赔偿的情况下,通过向法院提起民事诉讼的司法程序予以实现。这种不告不理原则约束下的司法程序使民事法律责任的实现充满了“被动性”,所以也就只能适用于损害程度相对较小的民事违法行为。而行政法律责任的追究则可以由行政执法机关主动予以实施。行政执法机关有权依据自身职权主动对可能存在的违法行为进行检查,这不但可以及时发现违法行为的存在,追究违法主体的行政法律责任,产生“特别威慑”的法律效果。而且,行政执法机关对违法主体的责任的主动追究也能对其他潜在的违法主体予以更强的警示,避免新的违法行为的出现,产生“一般威慑”的法律效果。[31]这就体现了行政法律责任所具有的“主动性”,能够通过行政执法机关的主动执法行为给予公共利益更好的保护。正因如此,只要是涉及公共利益的事物,成文立法中通常都会通过设定行政法律责任予以保护。典型如个人信息虽然表面上似乎仅与信息主体的个体利益有关,但学者的研究已经指出,在数字社会中个人信息还具有强烈的公共性的面向,主要体现为数字市场和社会中的认证、连接和声誉功能,事关公共利益的实现。[32]于是在我国个人信息保护法中就针对侵害个人信息的违法行为设定了诸多行政法律责任(第66—68条),体现了该法所具有的公法属性。

具体到数字平台算法侵害领域中,大多数的算法侵害行为都具有隐蔽性,其产生的危害后果往往不能被受害者轻易察觉。例如,在大数据杀熟的相关事例中,平台用户通常都是在非常偶然的情况下才会发现数字平台的算法侵害行为,需要经过刻意的比对才能发现自身权益的受损情况。这就导致在大多数情况下,大数据杀熟行为都不能被平台用户发现,在数字屏蔽技术的掩护下,数字平台能够轻易地通过算法操控实施大数据杀熟行为谋取更多的利益。因此,仅依靠民事法律责任的设置来约束数字平台显然是不够的,不要说平台用户很难发现算法对自身的侵害,即使发现了算法侵害行为的存在,在权衡成本收益之下,平台用户也不一定会愿意耗费时间、精力来提起民事诉讼追究平台企业的民事法律责任。

数字平台算法侵害行政法律责任的设置就此体现出了比较优势。行政执法机关较之平台用户具有更专业的技术知识,也具有更强有力的执法途径,能够主动对数字平台中存在的算法侵害行为进行行政检查,主动追究算法侵害行为引起的行政法律责任。正如学者指出,行政执法机关可以综合运用“巡警机制”(主动发现算法侵害行为)、“火警机制”(接受民众投诉、举报从而发现算法侵害行为)、“片警机制”(要求平台企业进行算法备案)有效应对算法侵害行为。[33]因此,行政法律责任的设置能够对算法侵害行为产生更强的一般威慑,较之民事法律责任的设置而言更有利于对社会公共利益的及时、有效维护。

总之,数字平台算法侵害行政法律责任设置的法理基础在于数字平台的公共性使得平台算法侵害行为具有侵害公共利益的特性,而作为公法责任的行政法律责任较之作为私法责任的民事法律责任更能有效地应对数字平台算法侵害行为的这一特性,更有利于对公共利益的有效保护。

三、数字平台算法侵害行政法律责任的责任主体

法律责任中的责任主体是因实施违法行为而承担法定不利后果的主体。传统违法行为的法律责任主体比较容易确定,只要能准确定位违法行为的具体实施者即可。但是,在数字平台算法侵害行为中,责任主体却会因算法中人工智能技术(artificiali intelligence,AI)的广泛应用而产生认定难题。因此,为了更有效地应对数字平台中人工智能算法技术的发展,应通过立法将平台企业设定为算法侵害行为的行政法律责任主体。

(一)人工智能技术导致算法侵害法律责任主体的认定难题

在数字平台算法中,人工智能技术已经获得了越来越多的应用。人工智能从其最基本层面上是指“一种由机器所具有的、通常被认为是人类思维所特有的认知能力,包括感知的能力、推理的能力、学习的能力、与周围环境互动的能力、解决问题的能力,乃至进行创新的能力”。[34]人工智能技术在数字平台算法中的应用至少从两个方面导致算法侵害法律责任主体认定的难题。

第一,人工智能的复杂技术生态体系导致法律责任主体认定的困难。人工智能算法不是一项孤立运作的技术,它往往与物联网、区块链、智能合约、传感技术等密切关联,形成了一个复杂的“技术生态体系”(technological ecosystem)。[35]在这个技术生态体系中存在着多元的参与主体,包括编制算法程序代码的开发主体、提供算法运行所需数据的供应主体、运用数据进行算法模型演练的训练主体、制造人工智能系统的生产主体、部署运用人工智能系统的应用主体,等等。虽然这些主体之间可能会存在重合,但随着技术分工的细密化,主体之间的分离会是常态。这些人工智能算法的多元参与主体对于算法侵害结果的产生都会起到作用,例如,由于算法程序代码开发主体的疏忽,导致算法程序运行产生错误,或者由于数据供应主体提供的数据中包含着偏见,致使算法决策结果出现歧视的效果等。[36]多元参与主体的行为有可能同时影响算法决策的产出,这就会导致由此产生的算法侵害责任“变得具有流动性、模糊性,产生具体错误结果时往往很难查明和界定是哪个主体有过错”,[37]这样也就导致算法侵害责任主体认定的困难。

第二,“算法黑箱”问题的强化导致责任主体认定的困难。随着人工智能的不断发展,使运用人工智能的算法技术呈现了与传统算法不一样的特征。传统算法是以满足目标函数为目的,数据输入与结果输出之间存在着清晰的、以编码体现的逻辑链条,根据输入的数据可以合理预期相应的输出结果,且一旦发现问题,可以逐层回溯整个编码结构对其予以矫正。而人工智能算法则具有机器学习(machine-learning)的能力,[38]能够在数据分析的基础上开展自我学习,高度发达的人工智能算法技术甚至可以实现自我演进,使人工智能系统依靠自身的机器学习能力实现升级和进化。[39]这意味着在高阶的人工智能算法系统中,数据输入与结果输出之间就不存在清晰的逻辑链条,而是存在着近乎无限可能的逻辑分支,大幅度强化了所谓的“算法黑箱”问题,导致连参与编写算法代码的程序员也可能无法预测人工智能算法的进化方向。算法黑箱问题的强化自然就导致难以有效辨明导致算法侵害的过错分配,算法侵害责任主体的认定难度也就随之增强。[40]

(二)人工智能实体不宜成为算法侵害行政法律责任主体

正是由于人工智能在数字平台算法中的应用使得算法侵害难以如传统侵害行为一样确定法律责任的归属主体,因此有学者提出应当赋予人工智能实体法律上的主体资格,使其成为能够独立承担法律责任的主体。如果依据这种观点,那么采用了人工智能算法、具有自主学习能力的数字平台就有资格成为算法侵害的法律责任主体。将人工智能实体拟制为法律主体类似于法人制度将经济性组织拟制为法律主体,由此人工智能实体就成为类似于公司一样拥有自身法定的财产,并可以在财产范围内独立承担法律责任的法人。[41]这种观点的优势在于:其一,能够极大便利算法侵害的受害者请求和获得损害赔偿。在这种法律拟制下,受害者不需要区分人工智能实体所关联的复杂技术生态体系中究竟哪个主体具有过错,而是直接以人工智能实体作为索赔对象即可,这就摆脱了复杂到几乎不可能实现的举证责任。[42]其二,将人工智能实体作为承担有限责任的法律主体,可以激励各类市场主体放心地进行人工智能实体的高阶研发,不会因担心承担无限的法律责任而怠于在人工智能实体研发应用方面的投入,从而促进人工智能技术的快速发展。[43]

不过,这种观点的缺陷也是明显的,因为它更多地是基于民事法律责任进行分析,将受害人的请求限定在民事侵权损害赔偿之上,而忽略了诸如行政法律责任此类公法责任的追究,没有注意到民事法律责任和行政法律责任之间的区别。

民事法律责任作为私法责任,其目的主要在于保护个体利益,主要功能在于损害填补,所以承担民事法律责任的主要方式是经济赔偿,给予利益受到损害的主体以货币上的赔付,弥补其损失。[44]正因如此,将人工智能实体拟制为法律上的责任主体,使其拥有自身法律意义上的财产,并在自身财产范围之内承担赔偿形式的民事法律责任具有一定意义。但是,行政法律责任属于公法责任,其主要目的在于保护公共利益,通过对违法行为主体实施惩戒以产生必要的威慑,防止违法行为主体或潜在的其他主体在将来实施违法行为,从而实现对社会主体之间合作关系的保护,维持社会秩序的稳定。因此,承担行政法律责任的方式不仅仅只有经济性的罚款,还包括诸如通报批评、行业禁入、责令停产、行政拘留等其他责任形式。这些行政法律责任形式的主要目的在于对违法主体产生必要的威慑,而非对受害主体的损失进行弥补。

如果将人工智能实体作为行政法律责任的主体,则难以实现必要的威慑功能。因为人工智能实体不具有自然人的情感,无法像自然人一样因受到行政处罚而产生畏惧的心理状态从而调整自身的未来行为。[45]而且,对人工智能实体的相应处罚手段(如关机、断电)也难以让其他自然人产生感同身受的自然情感,也就不会对其他自然人产生必要的威慑,维持社会合作秩序的存续。可能会有人提出:法人同样是法律上拟制的法律主体,为何法人可以作为承担行政法律责任的主体,而人工智能实体就不适合成为行政法律责任主体呢?这是因为,法人与人工智能实体之间重要的区别在于,前者本质上还是自然人的聚合体,[46]其主要是为了节省经济活动的交易成本而由法律拟制的法律主体。法人承担相应的行政法律责任能够对法人所聚合的自然人的权益产生实质性的影响。例如,吊销公司的营业执照导致公司员工失业并丧失收入来源,这就会对法人所聚集的自然人产生有效的威慑,防止其再次实施违法行为,有利于维护社会合作秩序的存续。但是,人工智能实体则并非自然人的聚合体,而只是具备类人学习能力的机器体,使其承担行政法律责任不会像法人一样对自然人的权益产生实质性影响,也就难以产生必要的威慑。更何况人工智能实体多是由公司形态的法人负责营运,由人工智能实体作为行政法律责任主体不如由实际控制其行为的公司法人作为行政法律责任主体,其产生的威慑效能将显著优于人工智能实体作为行政法律责任主体。因此,对于应用人工智能算法的数字平台上产生的算法侵害行为,不宜以人工智能实体(也即数字平台本身)作为行政法律责任的责任主体。

(三)应由平台企业作为算法侵害的行政法律责任主体

相较之下,更适合作为数字平台算法侵害行政法律责任主体的应是实际运营该数字平台的平台企业。这是因为:

第一,平台企业是实际控制运营数字平台算法并直接获利的主体,它能够以相对最小的成本防止算法侵害的发生。“控制力构成了归责的正当性基础”,[47]虽然人工智能算法所关联的技术生态非常复杂,涉及到多元的参与主体,但是平台企业是人工智能算法的实际控制主体。它作为人工智能算法的部署运用者,事实上处于人工智能复杂技术生态体系中的核心地位,其他多元参与主体实施的行为都是最终服务于平台企业。诸如算法代码的设计开发、数据的收集传输、算法模型的训练、数字平台产品的制造等行为都是围绕平台企业的实际需要而开展,最终都是要为平台企业的营利而服务。这意味着,平台企业对人工智能技术生态体系中的其他主体具有最为强有力的影响力,也最有可能有效约束其他主体的行为,是“成本最低的违法行为的控制者”。[48]由此,将平台企业作为算法平台侵害的行政法律责任主体,能促使其主动去约束人工智能技术生态体系中其他主体的行为,实际上就是将法律责任配置给能以最小成本避免算法侵害发生的主体,是算法侵害规制中最有效率的法律责任配置方式。

第二,平台企业作为算法侵害行政法律责任主体在一定程度上也能缓解人工智能技术所强化的“算法黑箱”问题。人工智能技术的发展归根到底还是应为增进人类的福祉服务,由此人工智能的机器学习能力必须被控制在必要的限度范围内,不能任由其无节制的发展,以致于连人类自身都无法解释“算法黑箱”的运行规则。如果“算法黑箱”问题被人工智能技术强化到如此地步,那么就可能会成为威胁人类福祉的力量,这样的人工智能技术也就应成为被限制的技术,甚至没有存在的必要,至少没有商业化应用的必要。在法律上将平台企业设定为算法侵害的行政法律责任主体,事实上是给予平台企业必要的激励,让平台企业成为防止人工智能算法过度黑箱化的力量,促使其限制、约束人工智能技术生态体系中的算法设计、开发主体,避免盲目开发可能连它们自己也无法掌控的人工智能算法技术。

第三,平台企业作为算法侵害行政法律责任主体还能有效提高算法行政规制的效率。虽然数字平台算法侵害的产生并不一定是由平台企业的过错所导致,但是平台企业却必然是距离算法侵害行为最近的主体。面对人工智能算法的复杂技术生态体系,高度的信息不对称使得行政执法机关也很难精确、及时区分算法侵害行为的过错主体。此时将平台企业设定为算法侵害行政法律责任主体,就能够在算法侵害行为发生时迅速定位法律责任的承担者,及时制止算法侵害行为的继续实施,防止损害后果的持续扩大。同时,行政法律责任的设定还能促使平台企业事前制定必要的内部规则,实施必要的合规检查,提前预防算法侵害行为的发生。由此,行政执法机关也能在面对人工智能技术所引发的高度信息不对称的情境中,通过施加对平台企业的影响,督促其建立完善的合规体系,防止算法侵害的发生,这就与行政规制理论中的“元规制”[49]方式具有异曲同工之妙。

由此可见,面对人工智能算法日益复杂的技术生态和日渐精密的机器学习能力,将平台企业确定为数字平台算法侵害行政法律责任主体更有助于预防算法侵害行为的发生,也更有助于行政执法机关对平台算法的有效规制。当然,将平台企业作为行政法律责任主体的同时,基于公平原则,应当允许平台企业在承担行政法律责任之后,就其所遭受的相应损失向人工智能技术生态体系中存在过错的其他主体进行追偿,以缓解算法行政规制的效率与公平之间的紧张关系,也使平台企业更容易接受被施加的行政法律责任。[50]

四、数字平台算法侵害行政法律责任的归责原则

在明确了平台企业应当作为数字平台算法侵害的行政法律责任主体之后,随之而来需要解决的问题就是此类行政法律责任应当采取何种归责原则。归责原则是行政法律责任体系中不可缺少的组成部分,它是判定法律责任主体是否应当承担行政法律责任及如何承担行政法律责任的基本准则,属于法律责任概念中的价值要素,[51]主要包括过错责任原则、无过错责任原则、公平责任原则等。[52]在行政法律责任的归责原则问题上,不同类型的行政法律责任方式可以采用不同的归责原则,因此确定数字平台算法侵害行政法律责任的归责原则,应当先区分此类行政法律责任的不同责任方式,然后再探讨确定不同行政法律责任方式所对应的归责原则。

(一)数字平台算法侵害行政法律责任方式的两种类型

就数字平台算法侵害的行政法律责任方式而言,违法主体接受行政处罚无疑是最为常见的承担法律责任的方式。例如,《算法推荐管理规定》第31条规定,如果算法推荐服务者没有向用户提供选择或者删除算法推荐服务的针对其个人特征的用户标签的功能,那么网信部门等行政执法机关有权依据职权给予警告或通报批评。依据这一条款,从行政执法机关角度而言,其有权对算法推荐服务者作出行政处罚决定。而从作为被处罚对象的算法推荐服务者(平台企业)角度而言,它所承担的行政法律责任方式就是“接受行政处罚”。可见,数字平台算法侵害行政法律责任方式的第一种类型是平台企业通过“接受行政处罚”承担法律责任。

但是,“接受行政处罚”并非是平台企业依法应当承担的唯一行政法律责任方式,法律体系中还存在着其他类型的行政法律责任方式,最典型的就是“改正违法行为”的责任方式。例如,在《算法推荐管理规定》第31条中,除了规定行政处罚内容之外,还规定了行政执法机关有权对算法推荐服务者作出“责令限期改正”的决定,这意味着算法推荐服务者除了需要承担“接受行政处罚”的行政法律责任之外,还需要承担“改正违法行为”的行政法律责任,这一责任方式对应的行政执法机关的行政行为就是“责令改正”。依据行政法的基础理论,行政执法机关作出的“责令改正”行为不同于行政处罚行为,属于独立的行政行为,由此算法推荐服务者(平台企业)承担的“改正违法行为”的责任方式也就不同于“接受行政处罚”的责任方式。[53]对于“改正违法行为”是否属于独立的行政法律责任方式可能会存在疑问,不过,如果对比民事法律责任方式,我们就能明确其应当属于独立的行政法律责任方式之一。因为行政法律责任中“改正违法行为”的责任方式与民事法律责任中“停止侵害、排除妨碍、消除危险”的侵权责任方式具有相似性,[54]两者都是要求违法行为人纠正自身违法行为,恢复到理想的法律秩序状态中,只不过前者主要是基于保护公共利益、维护行政管理秩序而实施,后者则主要是基于保护个体利益、维护被侵权人的合法权益而实施。既然在民事法律责任中“停止侵害、排除妨碍、消除危险”可以作为独立的责任方式,那么在行政法律责任中“改正违法行为”也应可以作为独立的责任方式。

可见,在数字平台算法侵害中,作为责任主体的平台企业可能承担的行政法律责任方式主要包括“接受行政处罚”和“改正违法行为”两种类型,以下分别讨论这两种行政法律责任方式的归责原则。

(二)“接受行政处罚”责任方式的归责原则

我国2021年修订后的行政处罚法第33条第2款规定:“当事人有证据足以证明没有主观过错的,不予行政处罚。法律、行政法规另有规定的,从其规定。”可见,我国行政处罚法确立了行政处罚的过错推定原则,同时也预留了法律、行政法规可以作出例外规定的空间。[55]这意味着,如果没有法律、行政法规的例外规定,数字平台算法侵害中的行政处罚就应当遵循过错推定的归责原则。而从目前规制算法侵害行为的相关成文法律规范来看,只有一部作为部门规章的《算法推荐管理规定》,并且其中也并没有关于算法侵害行政处罚归责原则的例外规定。因此从现行的成文法规范来看,数字平台算法侵害的行政处罚应适用行政处罚法中规定的过错推定原则。

然而,在人工智能算法技术不断发展的当下,将过错推定原则作为数字平台算法侵害行政处罚的归责原则存在不适宜之处,应当采用无过错责任原则更为合适。

这是因为,在人工智能算法复杂的技术生态体系中,平台企业位于技术链条的终端,直接控制着人工智能算法的实施应用,是算法的部署运用主体,也是算法侵害中距离受害平台用户最近的主体。这意味着,平台企业不但是算法侵害行为的最密切关联主体,而且也是防止算法侵害行为发生的最后一道有效屏障。我们可以将平台企业视为人工智能算法复杂技术生态体系的“守门人”,[56]它肩负着防止算法侵害实际产生的“主体责任”。[57]不过,由于平台企业往往能从算法侵害行为中获益,所以从其自身的意愿而言并无动力主动停止算法侵害行为,也无足够的动力去约束人工智能算法技术链条中的上游主体,降低算法侵害行为的发生概率,甚至还有可能主动要求技术链条的上游主体配合自己实施的算法侵害行为。因此,必须通过有效的制度设计激励平台企业,促使其主动抑制自身实施算法侵害的冲动。且更重要的是,应通过有效的制度设计激励平台企业主动去约束人工智能算法技术链条中的上游主体,防止因其他主体的过错而导致算法侵害行为的发生,大幅度降低算法侵害风险的发生。

法律责任制度的设置就是一套有效的激励体系,不同的法律责任的分配会产生不同的激励方向,且激励强度也各不相同。[58]过错推定原则虽然能够对平台企业产生一定的激励,促使其约束自身及技术链条的上游主体,避免算法侵害行为的发生。但是,与此同时,过错推定原则也会激发平台企业为了证明自身无过错,而将过错置于其他主体的冲动。例如,在技术缺陷类算法侵害中,发生自动驾驶汽车的交通事故后,过错推定原则会激励平台企业将更多精力放在找寻证明自身无过错的证据之上。而将过错归于其他主体是避免自身承担法律责任的有效途径,如将算法决策错误归因于算法程序设计主体或数据供应、训练主体的过错,从而使自身免责。这就导致在过错推定原则之下,平台企业会更注重制作、收集、保存证明自身无过错的证据及技术链条上其他主体有过错的证据,而不会将主要精力放在事先约束自身及技术链条上其他主体的算法侵害行为之上。

于是,无过错责任原则相对于过错推定原则就具有了比较优势。无过错责任原则的设置意味着只要发生了数字平台的算法侵害行为,平台企业就应当承担相应的接受行政处罚的责任。这种归责原则能够更充分地激励平台企业事先预防算法侵害行为的发生,而非事后寻找其他主体的过错,推卸自身的责任。作为人工智能算法复杂技术生态体系的部署应用者,平台企业实际上就是人工智能算法的终端购买与消费者。平台企业在无过错责任原则的激励之下会产生更充分的动力去约束技术链条的上游主体,要求这些上游主体避免出现可能会导致算法侵害的问题。需求决定供给,一旦作为人工智能算法需求端的平台企业减少了通过算法侵害行为获利的渴求,人工智能算法供给端的各个主体也将会随之相应减少可能导致侵害的算法供给,这两者会构成正比关系。于是,人工智能的机器学习能力所导致的算法黑箱过度强化的风险也能得以降低。在平台企业需求的导向之下,技术链条的上游企业会有动力主动控制人工智能算法的自我进化能力,避免出现人工智能机器学习能力所导致的不可控、不可预测的算法决策,事先防止算法侵害行为的发生。同样,基于公平原则,还应当允许平台企业在接受行政处罚后,有权向人工智能技术链条的上游主体进行追偿,以平衡平台企业与其他主体之间的权利与义务关系。

由此可见,数字平台算法侵害中“接受行政处罚”的责任方式采用无过错责任原则为宜。为了与我国行政处罚法第33条第2款的规定相协调,建议可以通过制定法律或者行政法规的途径对数字平台算法侵害中行政处罚的无过错责任原则进行特别规定。

(三)“改正违法行为”责任方式的归责原则

当行政执法机关发现数字平台存在算法侵害行为时,必然应责令平台企业停止并纠正自身的违法行为,防止算法侵害行为继续存在并造成损害后果的扩大。正因如此,所以我国行政处罚法第28条第1款明确要求,行政机关实施行政处罚时,应当责令当事人改正或者限期改正违法行为。例如,当行政执法机关发现数字平台存在“大数据杀熟”的行为,利用算法在交易价格上对平台用户实施不合理的差别待遇时,理应要求平台企业停止此类算法侵害行为、避免继续实施大数据杀熟。于是,平台企业就承担了修改平台算法程序以消除此类算法侵害行为、改正违法行为的行政法律责任。

目前我国法律规范中对于“改正违法行为”的归责原则并未作出单独的规定,对此可以借鉴民事法律责任中归责原则的设置方式。在民事法律责任中,为了更好地保护被侵权人的合法权利,对于“停止侵害、排除妨碍、消除危险”责任方式的归责原则一般采用无过错责任原则。[59]同样,数字平台算法侵害行政法律责任中“改正违法行为”的归责原则也应采用无过错责任原则,这是因为:

第一,无过错责任原则能更高效地消除算法侵害行为。改正违法行为包含了“停止违法行为”和“不再实施同样违法行为”两个层面的行为内容,这两层行为内容都能够直接阻止算法侵害的发生,维护公共利益的效果立竿见影,且这两个层面的行为只有采用无过错责任原则才能最有效率地实施。例如,在标签设定类算法侵害中,对于平台用户错误的标签设定或许可能源于算法决策所依赖的数据错误,属于数据供应主体的过错而非平台企业的过错。然而,如果行政执法机关依据过错责任的原则要求数据供应商纠正算法侵害行为,那么数据供应商需要通过平台企业才能实际纠正错误设定的平台用户标签,因为能够有效改正标签设定错误的主体是平台企业而并非数据供应商,平台企业才是真正控制数字平台算法决策的主体。可见,此时,过错责任原则并不能及时纠正算法侵害行为。而如果采取无过错责任原则,明确只要数字平台上出现标签设定类的算法侵害行为,平台企业就应承担停止违法行为和不再实施同样违法行为的“改正违法行为”责任,那么就能高效地消除算法侵害行为,及时有效地维护公共利益。

第二,无过错责任原则是第一性义务中附随责任的本质要求。就法理而言,改正违法行为是社会主体违反法律规范设定的第一性义务之后,理应承担的当然责任,可以理解为属于第一性义务的附随责任。这种附随责任源自于法律规范设定的第一性义务的法律效力,是法律秩序得以存续的前提之一。没有这种附随责任的履行,法律规范设定的行为规则就会成为一纸空文。例如,在信息操控类算法侵害中,平台企业的大数据杀熟行为违反了《算法推荐管理规定》第21条设定的关于禁止算法推荐服务者利用算法在交易价格上实施不合理差别待遇的第一性义务。一旦这种第一性义务被平台企业实施的大数据杀熟行为所违反,那么修改算法程序、取消对平台用户在交易价格上的不合理差别待遇就是随之产生的当然随附责任,这种附随责任无须以平台企业存在过错为前提,而是直接源自法律规范中第一性义务所应具有的法律效力,也是法律秩序存续的必要条件之一。由此可见,无论是从消除算法侵害的效率角度,还是从法理的应然角度,“改正违法行为”的行政法律责任方式都应采用无过错责任原则。事实上,在行政执法实践中,行政执法机关一般都不会深究此时的归责原则,而是下意识地在责令改正违法行为时采用无过错责任原则,因为它体现了“社会中具有支配力的法伦理”。[60]

总之,从以上的论述可以看出,在数字平台算法侵害行政法律责任的归责原则设置问题上,无论是“接受行政处罚”的法律责任方式还是“改正违法行为”的法律责任方式,都应以无过错责任原则为宜。

五、结语

综上所述,在数字平台算法侵害的法律责任体系中,行政法律责任属于不可缺少的重要组成部分。数字平台所具有的公共性特征使算法侵害行为除了影响平台用户的个体权利之外,还会对公共利益产生破坏,这也成为设置行政法律责任的法理基础。数字平台算法中人工智能技术的广泛应用使得依据传统方式确定法律责任主体存在困难,也不宜将人工智能实体(数字平台本身)作为承担法律责任的主体,而是应将平台企业作为行政法律责任主体。同时,数字平台算法侵害行政法律责任的责任方式主要包括接受行政处罚和改正违法行为两种类型,这两种类型的责任方式都应以无过错责任作为归责原则,这样才能更有效地防范数字平台算法侵害行为的发生。

注释:

[1]王莹:《算法侵害责任框架刍议》,载《中国法学》2022年第3期,第168—172页。

[2]蔡宏伟:《“法律责任”概念之澄清》,载《法制与社会发展》2020年第6期,第103页。

[3]广义上的行政法律责任包括行政主体和行政相对人违反行政法律规范产生的法律后果,也即包括“违法行政行为”和“行政违法行为”所产生的法律责任。但是,本文中所探讨的行政法律责任特指后者,也即行政相对人违法所产生的法律责任,不包括行政主体违法时应承担的法律责任。关于行政法律责任概念区分的详细探讨,参见张志勇:《行政法律责任探析》,学林出版社2007年版,第5—9页。

[4][美]罗伯特·塞奇威克、凯文·韦恩:《算法》(第四版),谢路云译,人民邮电出版社2012年版,第1页。

[5]参见苏宇:《算法规制的谱系》,载《中国法学》2020年第3期,第165页。

[6]参见张凌寒:《权力之治:人工智能时代的算法规制》,上海人民出版社2021年版,第33—40页。有学者将算法权力称为“准公权力”,参见郭哲:《反思算法权力》,载《法学评论》2020年第6期,第33页。

[7]参见周辉:《算法权力及其规制》,载《法制与社会发展》2019年第6期,第118—119页。

[8]桑斯坦提出的“信息茧房”问题是指“我们只听我们选择的东西和愉悦我们的东西的通讯领域”。参见[美]凯斯·R.桑斯坦:《信息乌托邦:众人如何生产知识》,毕竞悦译,法律出版社2008年版,第8页。

[9]大数据杀熟也称“算法个性化定价”或“算法价格歧视”。参见雷希:《论算法个性化定价的解构与规制——祛魅大数据杀熟》,载《财经法学》2022年第2期,第146页。

[10]王莹:《算法侵害类型化研究与法律应对——以〈个人信息保护法〉为基点的算法规制扩展构想》,载《法制与社会发展》2021年第6期,第135页。

[11]“偏见进,偏见出”来自计算机科学术语“垃圾进,垃圾出”(garbagei in,garbage out),由Mayson教授引入法学领域算法歧视问题的分析。SeeS Sandra G.Mayson,Bias in,Bias out,128 YaleL L.J.2218,222224 (2019).

[12]已有学者就此提出算法立法中应确立特有的“标签删除权”。参见任颖:《算法规制的立法论研究》,载《政治与法律》2022年第9期,第103页。

[13]参见武腾:《最小必要原则在平台处理个人信息实践中的适用》,载《法学研究》2021年第6期,第73页。

[14]参见王莹:《算法侵害类型化研究与法律应对——以〈个人信息保护法〉为基点的算法规制扩展构想》,载《法制与社会发展》2021年第6期,第140页。国外学者对算法归化问题的研究,参见Jack M.Balkin,2016 Sidley Austin Distinguished Lecture on Big Data Law and Policy:The Three Laws of Robotics in the Age of Big Data 78 Ohio St.L.J.1217,1238-1239 (2017)。

[15]参见于洋:《论个人生物识别信息应用风险的监管构造》,载《行政法学研究》2021年第6期,第101页。

[16]参见刘权:《网络平台的公共性及其实现——以电商平台的法律规制为视角》,载《法学研究》2020年第2期,第43页。

[17]罗梁波:《公共性的本质:共同体协作》,载《政治学研究》2022年第1期,第105页。

[18]王道勇:《社会合作何以可能——集体利益论与集体意识论的理论分析与现实融合》,载《社会学研究》2022年第5期,第112页。

[19]数字平台经济和传统产业经济的核心区别在于市场参与者将网络效应予以内化的能力不同,前者的内化能力远超后者。参见杨明:《平台经济反垄断的二元分析框架》,载《中外法学》2022年第2期,第369页。

[20]丁晓东:《论算法的法律规制》,载《中国社会科学》2020年第12期,第151页。

[21]有学者在考察各种对公共利益概念不同的解释理论之后指出,各类公共利益概念的“共同要素是其与共同体、总体福祉、人类尊严以及维护长治久安的社会条件之间的联系”。事实上,社会成员之间的合作就是最重要的社会条件之一。参见[英]迈克·费恩塔克:《规制中的公共利益》,戴昕译,龚捷校,中国人民大学出版社2014年版,第50—51页。

[22]刻板印象常常是偏见与歧视的认知基础。参见[美]谢利·泰勒、利蒂希亚·安妮·佩普卢、戴维·西尔斯:《社会心理学》(第12版),崔丽娟、王彦等译,上海人民出版社2010年版,第168页。

[23]这是法律规范逻辑结构通说“新三要素论”的主要观点。参见雷磊:《规范、逻辑与法律论证》,中国政法大学出版社2016年版,第141页。

[24][美]加里·B.赫伯特:《权利哲学史》,黄涛、王涛译,华东师范大学出版社2020年版,第7页。

[25]凯尔森指出赋予权利的法律规范效力的实现是以对其他人或政府官员确立不得干涉权利主体行使权利这一强制性义务为条件的。参见[美]E.博登海默:《法理学:法律哲学与法律方法》,中国政法大学出版社2017年版,第363—364页。

[26]正是由于法律责任与法律义务之间的这种密切联系,所以有学者指出法律义务的构成要素之一就是“引起法律责任的可能性”。参见钱大军:《法律义务研究论纲》,科学出版社2008年版,第59—67页。

[27]凯尔森曾论及刑法(公法)与民法(私法)的目的不同之处在于前者旨在报应与威慑,后者旨在赔偿。参见[奥]凯尔森:《法与国家的一般理论》,沈宗灵译,商务印书馆2013年版,第93页。

[28]公法与私法之间重要的区分标准之一就是前者以公益为目的,后者以私益为目的。参见[日]美浓部达吉:《公法与私法》,中国政法大学出版社2003年版,第28—30页。

[29]有学者曾指出政府是“公共利益当然的和首要的代表”,这也决定了公法责任的追究主要是为公共利益服务。参见胡鸿高:《论公共利益的法律界定——从要素解释的路径》,载《中国法学》2008年第4期,第60页。

[30]法理学者的研究指出,私法责任以功利性补偿为主,公法责任以道义性惩罚为主。参见孙笑侠:《法的现象与观念——中国法的两仪相对关系》,光明日报出版社2018年版,第182—184页。

[31]威慑是公权力实施的惩罚行为所具有的主要功能之一,它可以区分为“特别威慑”和“一般威慑”两种类型。前者是对惩罚对象产生的直接威慑,后者是对其他社会主体产生的间接威慑(也称“间接惩罚”)。参见[美]劳伦斯·弗里德曼:《碰撞:法律如何影响人的行为》,中国民主法制出版社2021年版,第131—132页。

[32]参见胡凌:《功能视角下个人信息的公共性及其实现》,载《法制与社会发展》2021年第5期,第176页。

[33]参见许可:《算法规制体系的中国建构与理论反思》,载《法律科学》2022年第1期,第126—127页。

[34]这是美国麦肯锡咨询公司(Mckinsey)在其编制的《人工智能管理指南》(An Executive's Guide to AI)中对人工智能所作出的基本定义。See Mckinsey & Company,An Executive's Guide to AI,https://www.mckinsey.com/capabilities/quantumblack/our-insights/an-executives-guide-to-ai (accessed Oct.5,2022).

[35]See Iria Giuffrida,Fredric Lederer & Nicolas Vermerys,A Legal Perspective on the Trials and Tribulations of AI:How Artificial Intelligence,the Internet of Things,Smart Contracts,and Other Technologies Will Affect the Law,68 Case W.Res.L.Rev.747,760((2018).

[36]参见[美]伍德罗·巴菲尔德、[意大利]乌戈·帕加洛:《法律与人工智能高级导论》,苏苗罕译,上海人民出版社2022年版,第48页。

[37]王莹:《算法侵害责任框架刍议》,载《中国法学》2022年第3期,第173页。

[38]学者的研究指出作为现代人工智能基础的机器学习算法是导致传统侵权法上主观意图和因果关系理论不能适用的主要原因。 See Yavar Bathaee,The Artificial Intelligence Black Box and the Failure of Intent and Causation,,331 Harv.J J.L.& Tech.889,,8891 (2018).

[39]人工智能可以区分为弱(限制领域)人工智能和强(通用)人工智能的不同形态,前者仅能实现人类智能的某一功能,后者则可以复制与自然人相似的人类智能水平,包括自我学习进化的能力。参见[美]伍德罗·巴菲尔德、[意大利]乌戈·帕加洛:《法律与人工智能高级导论》,苏苗罕译,上海人民出版社2022年版,第14—15页。

[40]See Hannah R.Sullivan & ScottJ J.Schweikart,Are Current Tort Liability Doctrines Adequate for Addressing Injury Caused by AI? 21 AMAJJJ.Eth.160,162-163(2019).

[41]See Jessica S.Allain,From Jeopardy! to Jaundice:The Medical Liability Implications of Dr.Watson and Other Artificial Intelligence Systems,73L La.L.Rev.1049,1073 (2013).

[42]See Gerhard Wagner,Robot,Inc.:Personhood for Autonomous Systems? 88 Fordham L.Rev.591,593 (2019).

[43]参见刘云:《论人工智能的法律人格制度需求与多层应对》,载《东方法学》2021年第1期,第64页。

[44]参见李拥军:《法律责任概念的反思与重构》,载《中国法学》2022年第3期,第235页。

[45]刑法学者的研究提出了类似的观点,认为“如果人工智能无法产生对触犯刑法后将要接受刑罚处罚的恐惧感,那么刑法就无法实现特殊预防和一般预防的功能”。参见叶良芳、马路瑶:《风险社会视阈下人工智能犯罪的刑法应对》,载《浙江学刊》2018年第6期,第68页。

[45]参见[德]霍斯特·艾丹米勒:《机器人的崛起与人类法律》,李飞、郭小匣译,载《法治现代化研究》2017年第4期,第70页。

[47]朱振:《归责何以可能:人工智能时代的自由意志与法律责任》,载《比较法研究》2022年第1期,第42页。

[48]赵鹏:《私人审查的界限——论网络交易平台对用户内容的行政责任》,载《清华法学》2016年第6期,第122页。

[49]“元规制”是行政规制的一种类型,指外部规制者有意促使规制对象本身针对公共问题作出内部式的、自我规制性质的回应,参见[英]罗伯特·鲍德温、马丁·凯夫、马丁·洛奇:《牛津规制手册》,宋华琳等译,上海三联书店出版社2017年版,第167页。

[50]在市场监管执法领域中,已经出现销售者在受到行政执法机关行政处罚并履行处罚义务后,就罚没款向上游供货商或生产者提出追偿的实例。参见秦静:《行政罚没款的可追偿性问题研究——以行政法律责任的构成与归责原则为中心的考察》,载《政法论坛》2020年第2期,第73页。

[51]参见余军、朱新力:《法律责任概念的形式构造》,载《法学研究》2010年第4期,第161页。

[52]参见张志勇:《行政法律责任探析》,学林出版社2007年版,第47页,第78—83页。

[53]现有研究指出,责令改正行为的一般法理特质是“行政执法者具体化行政违法者所应承担的第一性行政法律义务的一种意思表示”,这与行政处罚行为的一般法理特质完全不同。相关讨论,参见黄锫:《行政执法中责令改正的法理特质与行为结构》,载《浙江学刊》2019年第2期,第162—164页。

[54]魏振瀛:《侵权责任方式与归责事由、归责原则的关系》,载《中国法学》2011年第2期,第31页。

[55]参见袁雪石:《中华人民共和国行政处罚法释义》,中国法制出版社2021年版,第29页。

[56]我国个人信息保护法第58条创设了“守门人规则”,要求平台企业履行积极的信息保护义务。参见林洹民:《个性化推荐算法的多维治理》,载《法制与社会发展》2022年第4期,第176页。

[57]参见刘权:《论互联网平台的主体责任》,载《华东政法大学学报》2022年第5期,第79页。

[58]参见[美]史蒂芬·布雷耶:《规制及其改革》,李洪雷、宋华琳、苏苗罕、钟瑞华译,北京大学出版社2008年版,第257页。

[59]魏振瀛:《侵权责任方式与归责事由、归责原则的关系》,载《中国法学》2011年第2期,第32—35页。

[60][德]卡尔·拉伦茨:《法学方法论》,陈爱娥译,商务印书馆2003年版,第7页。

作者简介:黄锫,法学博士,同济大学法学院教授。

文章来源:《比较法研究》2023年第6期。

    进入专题: 数字平台算法  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 宪法学与行政法学
本文链接:https://www.aisixiang.com/data/149400.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统