返回上一页 文章阅读 登录

胡敏洁:论自动化行政中的瑕疵指令及其救济

更新时间:2021-08-21 23:20:10
作者: 胡敏洁  
公平被量化、被算法化可能带来歧视问题。美国联邦贸易委员会(FTC)发布的《大数据:包容性工具抑或排斥性工具?》(Big Data: a Tool for Inclusion or Exclusion?)报告,特别关注大数据中的歧视和偏见问题:数据集是否具有代表性?所使用的数据模型是否会导致偏见?基于大数据进行预测的准确性如何?对大数据的依赖是否会导致道德或者公平性问题?这些问题往往都伴随着缩减裁量而产生[7]。尽管我们一直为滥用裁量权所困,但基于行政的效率考量以及个案决定要求,它的存在却是必要的。当我们从一个需要个性化判断的行政决定走向规程化的程序中,社会的整体利益、人性情感、地方习俗等因素都可能被忽略。

  

   2.缩减程序:自动化行政缩减了行政行为的程序环节。如在“田志鹏诉陕西省西安市公安局站前分局行政处罚纠纷案”中,田志鹏认为,在交警大厅处理违章时,行政主体没有出具简易程序《处罚决定书》,违反了《道路交通安全法》的程序规定。法院在审判中认为,田志鹏的违法行为事实清楚,被告适用简易程序符合规定,至于未出具《处罚决定书》,那是因为自助缴纳系统本身可以自行打印且被告在处理大厅公示了违法处理流程,张贴有《法律文书补打流程告知》以及相关操作说明;田志鹏可依据操作说明在处理大厅自助系统打印出《处罚决定书》,但原告未按照上述告知内容打印,因而其主张被告没有明示自助缴费,不向其出具《处罚决定书》等意见,法院不予采纳,其诉讼请求被驳回。该案从形式上来看,程序被缩减,但实质上转移为另一种形式,即自助打印,而此时原告已缴纳罚款,可视为自行放弃了相应权利。但这里自然提出相关问题,是不是自动化行政所依赖的程序都是简易程序?或者可以缺省必要的程序?此时是否可以将行政主体的义务转化为行政相对人的权利?自动化执法系统会威胁程序性权利,即相对人被通知和进行申辩的机会。为救济相对人的合法权益,任何自动化执法系统都应该有大量的失效保护、冗余备份及相关机制,以确保完成适当的通知且个人可以有效地对自动出具的惩戒提出上诉[8]。

  

   (二) 理解自动化行政的核心:算法

  

   算法是自动化行政的核心内容。理解算法,才能理解缘何自动化行政会产生瑕疵并引发诸多问题。“算法就是一系列指令,告诉计算机该做什么”。“算法的核心就是按照设定程序运行以期获得理想结果的一套指令” [8]。所有的算法都包括如下共同特点:输入、输出、明确性、有限性、有效性。自动化行政发展的趋势便是学习型算法,这种算法会增加诸多人类所具有的判断,具有直觉和独创性,可以根据概率来权衡可能的未来。尽管当下我们上文所讨论的很多问题还称不上是这种学习型算法,但类似地,技术监控也好,自动化罚款缴纳系统也罢,这其中都存在技术盲区,即所谓的算法黑箱。我们无法知道系统背后所考量的因素是什么,算法的不公开、不透明使得自动化行政容易出现漫无边际的裸奔感[9]。

  

   由此,自动化行政便会产生包括隐私权保护、个人信息保护在内的与人权保护相关的核心命题⑨。基于我国现有的行政行为救济路径,可根据《行政诉讼法》第16条第12款规定,认为行政机关侵犯其他人身权、财产权等合法权益的,可提起诉讼。然而问题在于,“等合法权益”在自动化行政中,常常被淹没在算法黑箱之中。算法形成的黑箱进一步扩展而成为网络化。我们很多人时刻生活在网络化的社会中,自己的信息何时、如何以及是否被侵犯,很多时候甚至无从得知。换言之,依据黑箱中算法的自动化行政并不能像传统行政行为一样,依赖某个决定及时知晓自己的权益保护情况,这些都增加了对瑕疵指令进行后续救济的难度。

  

   (三) 瑕疵指令救济的传统行政法学基础

  

   对自动化行政中的瑕疵指令救济除了上述权利基础之外,还需要进一步明确其指令的相关救济可归入传统行政法视域中的哪些范畴之内。依数据来源瑕疵、算法瑕疵、系统瑕疵三种主要类型,实际上对应着几种救济的可能性,即针对行政程序、行政活动以及事实行为的救济。如图 1所示。

  

  

  

   图1 自动化行政瑕疵指令救济的传统行政法学基础

  

   1.数据来源瑕疵:由于数据是作为基础性的数据搜集和分析依据,一般来说不会直接构成某个决定,所以在某种意义上,它类似于一种行政程序。如“高瑞丽与郑州市公安局交警十大队公安交通处罚案”的一审行政判决书中,“电子眼”所搜集相关信息成为后续行政处罚的依据,在行政诉讼法中是一种证据材料⑩。当这作为一种程序时,单独依赖这种程序所作出的决定确实可能存在合法性的问题。本案中就车辆在郑州机场辖区的违法信息记录,原告如有异议,应当向该路段的交通管理部门提出。原告主动到被告处接受异地违法信息处理,且对《处罚决定书》标明的“如是异地交通违法,无异议后签名确认”等内容未表示异议,原告在被处罚人签名处签署姓名并主动履行罚款缴纳义务,这是对自己权利的处分行为,应当视为对违法事实没有异议。换言之,相对人等于自己放弃了相应的陈述、申辩等程序性权利。本案中,电子眼所搜集的信息并未构成最终决定,而是因为被处罚人签名、缴纳罚款的实际行为认可了该行政处罚的有效性。当然,数据来源的瑕疵情形有很多种,如自己填写信息错误则应属于归由自己的原因,需要有充分的理由说明才能予以更正。

  

   2.算法瑕疵:由于绝大多数情形下,算法背后所依赖的仍然是设定算法的技术人员,且这种利用机器所作出的自动化行政决定,其内容也是由公务人员确定并通过输入程序来实现的,因而,这种依赖算法的决定是一种行政活动。相应地,由于算法错误所导致的问题,也应归由行政机关及其工作人员承担相应的责任。然而,基于算法黑箱等因素,如果是纯粹的全自动化行政决定,如何审查算法仍需要进一步探究。换言之,算法也是一种“法”的实质,对于算法瑕疵的审查应该成为自动化行政发展后的独立命题,并不属于当下行政法律体系中的既有内容。

  

   3.系统瑕疵:此时,更接近于一种事实行为,也会引起后期的赔偿问题。理论上,自动化系统的问题可能是由于不可抗力的自然因素,也可能是由于人为因素所导致的错误。如果是前者,没有合法性的问题,但由此造成的损害也会产生赔偿问题;而如果是后者,由于这个系统与行政机关之间的密切关联,也应由行政机关及其工作人员负主要责任。

  

   综上所述,基于自动化行政的过程,即数据来源、算法(黑箱)再到所形成的系统,这样一个数据流向下,有些相关问题可在现有的法律体系中得以部分调整。但更多的救济则需要依赖更具有针对自动化行政特点的救济方式,对此后文仍将进一步加以探讨。

  

   三、对瑕疵指令进行救济的可能路径

  

   基于上述基础,我们可探索性地给出一个对自动化行政中瑕疵指令进行救济的可能路径。

  

   (一) 瑕疵指令的救济路径之一:正当行政程序

  

   从广义的角度来看,行政程序也是救济路径之一,如告知、听证等。上文已讨论过自动化行政会缩减程序,那么这种缩减程序的边界在哪里?是否会因缩减程序产生后续的救济问题呢?这两个问题实际上可以归入一种,即自动化行政指令带有黑箱属性,使得很多程序都在实际上被缩减,使得行政相对人的权利、义务依然受到相应的影响。总结前文所讨论的数个自动化罚款缴纳案例发现:一般来说,对于自动化行政指令而言,更适合被用在能够采用简易程序处理的案件之中。当然,随着科技的发展,未来人工智能如果能够处理复杂的编码和个案情形,也不排除它会从根本上挑战我们现有的行政程序法规范。对于处罚数额不大、情节认定较容易的违法情形,自动化执法完全可以引入,同时为了保障相对人的程序性权利,减少或避免后续出现的救济等问题,应要求当事人知情、确认并认可,而不能单纯依赖自动化执法机器,不然很容易使相对人陷于“无知之幕”的恐慌之中。告知环节本身也应依行政程序法的要求,行政机关应采取短信、网络等电子化方式辅之以书面告知等形式。此外,还有一点需要强调,即依赖自动化行政所作出的决定,在技术手段上需要确保行政相对人,即指令施加对象的可识别性。例如,在很多地方和领域都采取的人脸识别中,对行政主体的识别赋予优先性是基本要求。即使在采用电子化监控设备的道路交通执法中,行政主体对车辆基本信息的识别也是需要被优先考虑的。

  

   除了上述简单程序外,复杂程序中的一些救济程序的采用是否还有可行之处?如听证会。笔者认为,在多数情况下,自动化行政更适宜于可采用简易程序的场合,实际上也就排除了听证会的适用问题。如果自动化行政在获取信息的后续过程中,出现了诸如隐私权的侵扰等问题,也就依然需要程序上的保障,尤其是正当程序的保障。例如,在新冠肺炎疫情防控期间,有些地方要求公职人员“不得通过互联网、社交软件等途径捏造、传播、散布谣言,要保守工作秘密,不擅自发布、传播、泄露非公开发布的疫情防控工作信息” ⑪。2020年2月4日,中央网络安全和信息化委员会办公室发布的《关于做好个人信息保护利用大数据支撑联防联控工作的通知》明确指出:为疫情防控、疾病防治收集的个人信息,不得用于其他用途;任何单位和个人未经被收集者同意,不得公开姓名、年龄、身份证号码、电话号码、家庭住址等个人信息,因联防联控工作需要,且经过脱敏处理的除外⑫。《网络安全法》第43—45条也规定了相应的个人信息保护有关内容。

  

   技术性正当程序要求告知、听证等必要的程序适用[9],尤其当自动化行政决定涉及到公民的人身权、自由权时;同时还须在技术上采用无歧视的数据挖掘技术,避免个人被歧视;此外,还要求行政机关作出一定的理由说明[10]。例如,英国在2018年《数据保护法案》第14条规定,使用人工智能的公共管理部门必须在合理期限内以书面形式就自动化决策内容尽快通知被执行自动化决策的主体,数据主体可以在收到通知后一个月内,要求公共组织重新考虑对自己作出的自动化决策,或由自然人对决策进行重新评估⑬。

  

   (二) 瑕疵指令的救济路径之二:申诉

  

   作为传统的救济方式,申诉是常用的方式。在自动化行政中是否还能适用?其实类似于程序,在特定的情形之下,这些手段仍存在适用的必要性。然而,基于自动化行政的特征,我们需要对现有的申诉、信访制度进行一定程度上的改革以适应信息时代。例如,设立机器智能委员会等专业委员会来辨别判定一些涉及到自动化行政的专业性问题。再如,欧洲议会法律事务委员会主张建立欧洲机器人和人工智能机构;还有些学者主张建立跨国的、独立的、多利益相关的人工智能和数据委员会。他们认为,人工智能不仅仅是一个公用事业,一旦成熟就需要被监管,它更是重塑生活、互动和环境的强大力量,是人类栖息地向信息圈深刻转变的一个部分[11]。

  

中国实际上也有诸多类似的机构,(点击此处阅读下一页)


爱思想关键词小程序
本文责编:陈冬冬
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/128169.html
收藏