返回上一页 文章阅读 登录

许可:驯服算法:算法治理的历史展开与当代体系

更新时间:2022-05-31 01:12:24
作者: 许可:  

  

   摘要:算法治理是算法时代的核心议题。然而,当下算法治理的实效不彰,算法治理的理论亦分歧重重。鉴古而知今,20世纪60年代以降的算法治理史不但展现了丰富的制度实践,也为我国算法治理体系的建构提供了深邃洞见。聚焦于关键场景算法透明公平的“法律”、趋于共识的算法伦理“规范”和迈向算法可解释的“代码”,贯穿了长达半个世纪的算法治理进程。政府(法律)、社会(规范)、市场(代码)的耦合,以及工具性/自主性算法和高/低风险算法的类型化,共同塑造了理一分殊的“模块化”算法治理体系,为分类分级的算法治理奠定了稳固的理论之基。

   算法及其治理并非21世纪的新鲜事物。早在1984年,美国《电子监控与人民自由》的评估报告就总结道:过去20年间,已有约四分之一的部门将“计算机化的系统”用于“执法、调查或情报用途”。事实上,作为人类通过代码设置、数据运算与机器自动化判断进行决策的机制,其时算法的作用和影响远不止于此。在刑事司法、金融征信、社会福利、医疗卫生、国家安全等诸多领域的广泛应用,不但激发了算法治理的丰富实践,而且深刻塑造了后续的发展路径。时光流转,在算法治理理论聚讼纷纭,算法规制实效难如人意的当下,本文尝试采取一种更具历史性、对治理与技术的复杂纠缠体察更深的进路。为此,本文首先从人工智能诞生伊始、算法治理初具体系的20世纪60年代出发,以劳伦斯?莱斯格首倡的法律、规范和代码为线索,审视域外算法治理的演变。最后再回到我国语境,以期探索出一条返本开新的算法治理道路,就此而言,本文可算“一切历史都是当代史”这句箴言的算法注脚。

  

   一、算法的法律治理

   半个多世纪以来,随着信息技术的突飞猛进和算法运用的普及,对算法的法律规制亦浮出水面。在此,本部分拟从立法与司法出发,展现算法法律治理的基本面貌。

   (一)由点及面的算法立法

   1986年美国《电子记录系统和个人隐私》评估报告已充分意识到算法治理的必要性,其明确指出:个人画像意味着运用归纳逻辑,求解特征和行为模式与特定行为是否发生有关的指标,而政府部门画像的使用引起了算法歧视等重要的隐私和宪法问题。但截至那时,依然不存在任何针对画像的立法和政策指南。金融征信是仅有的成功推进相关立法尝试的场景。在评估报告与议会听证的基础上,1968年,美国联邦参议员Zablocki提出《公平信贷报告法》议案,要求赋予消费者“面临负面征信报告时知晓报告所基于的特定事实或指控”的权利。这可以被视为最早对征信算法下个体获得解释权的立法尝试之一。不过,由于两院议案内容的不一致——众议院版本要求贷款人在拒绝消费者申请时,披露拒绝的具体原因,参议院版本则未作此要求——在1970年正式通过的《公平信贷报告法》中,最终未能纳入类似获解释权的安排,仅赋予消费者有条件的、访问自身征信报告与信用分数的权利。法案立法目的部分直陈:“用于调查、评估征信状况的机制已经被开发出来,征信机构应当履行其在维护公平、不偏不倚和消费者隐私方面的重担。”1973年,参议院尝试修正《公平信贷报告法》,纳入类似获得解释权的权利、并消除对消费者访问征信报告的限制,未竟其功。就性别、种族等争议变量用于征信所蕴含的算法公平问题,1974年正式通过的《平等信贷机会法》规定:“在信贷交易的任何方面,基于种族、肤色、宗教信仰、国籍、性取向、在相应个体具备订立合同的民事权利时的年龄、收入全部或部分来源于公共援助项目而歧视相应信贷申请者,即属非法。”《平等信贷机会法》还落实了Zablocki的设想,其规定:“在申请信贷中遭采取负面决策的信贷申请者,有权自贷款人处获得对相应行动的理由的陈述……仅当陈述包括导致相应负面决策的确切理由时,对理由的陈述方可视为合乎本节的规定。”

   半个世纪前的立法,其现实意义不仅没有消磨,反而愈发突出。在算法治理立法迟滞不前的当下,行政机构不得不依赖“古老”的法律。2020年和2021年,美国联邦贸易委员会(FTC)发布的《人工智能和算法运用》(Using Artificial Intelligence and Algorithms)和《你的公司运用人工智能:以真实、公正、平等为目标》(Aiming for Truth, Fairness, and Equity in Your Company’s Use of AI)两份解释性规则,在《公平信贷报告法》《平等信贷机会法》以及1914年《联邦贸易委员会法》的基础上,指出应用算法者宜采取以下五类最佳实践。

   第一类,保持透明。不在使用自动化工具方面欺骗消费者;在收集敏感个人信息时,充分告知;如果自第三方数据经纪商处收集数据,并在此基础上作出自动化决定,应用算法者可能需要告知消费者与前述“负面决策”相关的访问或获解释的权利;引入独立监督。第二类,解释决定。若基于算法决定,令消费者丧失权益,宜作出《平等信贷机会法》所要求的解释;如果使用算法向消费者分配分数,则宜披露影响算法的关键因子,并依其重要程度排序;如果与消费者交易的条件可能因为自动化工具发生改变,则应将相应改变告知消费者。第三类,确保决定的公平。不因特定类别而歧视;既关注输入,也关注输出;给予消费者纠正个人信息的渠道和机会;不要在算法公平上向消费者作出夸张表述。第四类,确保数据与模型具稳健性、实证可靠。在将消费者数据用于多类重要决定前,确保相应数据满足《公平信贷报告法》对数据准确性与应时性的要求;在将数据提供给他人以用于自动化决定时,确保数据的准确性;确保人工智能模型已经反复验证,按设计目的工作,且不蕴含非法歧视。第五类,算法应用者应对合规、伦理、公平与歧视问题保持可问责。包括在应用算法前,就数据集、模型预测与“对大数据的依赖”开展反思;避免算法用于非法用途;考虑自身的问责机制;为善,而非作恶。

   尽管FTC的阐发具有鲜明的指导性,但执法案例仍付之阙如。FTC在上述解释性规则中反复援引的Facebook案与Everalbum案,可资参考。Facebook与Everalbum均向用户作出欺骗性陈述,称除非用户明示同意,不会默认将用户信息用于人脸识别算法,然而,二者实际均未信守承诺。FTC与二者达成和解令:除停止相应行为、删除相应数据、在数据隐私问题中确保用户同意、完善合规项目、引入定期评估等常见措施外,在Everalbum案中,和解令还要求“删除由相应相片、视频提取的人脸特征,并删除由相应相片、视频训练的模型和算法”。整体而言,除Everalbum案中新颖的处罚措施,两案均难以支持解释性规则所罗列的繁多实践。此外,从行政法的角度看,理论上无拘束力的解释性规则具有实践重要性,个体常常感到遵守这些规则的压力,行政机构得以灵活地实施治理。另外,由于解释性规则无须经历通常的立法程序,一旦具有事实上的约束力,即有可能违反行政法对行政立法的程序性规定;同时,将立法目的在于治理金融征信的《公平信贷报告法》《平等信贷机会法》解释为可能涵盖一般的算法应用者,有不当扩张相应法律适用范围之嫌。事实上,美国法院对FTC不断膨胀的执法权,审查亦在趋严。例如,在LabMD, Inc. v. FTC案中,就FTC以和解令形式向数据处理者提出的整改要求,法院认为其过于模糊、逾越了专断与任性的行政法界线,故撤销了该和解令。

   (二)因案成法的算法司法

   1. 算法透明与算法解释的司法规则

   “缓不济急”的立法使得司法系统不得不承担解决问题的角色。在1973年Neal v. U.S.案中,面对个人所得税计算程序的证据开示争议,法院判称:正在运作的是所谓“输入垃圾、输出垃圾”的计算机指令,只能获得打印的报税单结果的原告从未知晓对计算相应税额的程序指令的解释。因而有必要通过证据开示提供这一解释。

   1976年的Perma Research and Dev. Co. v. Singer Co.案进一步展现出法院对算法可解释性的回应。该案中,围绕汽车防滑设备的可靠性,原告仅提交基于计算机模拟算法的分析结果作为证据,其可采性成为重要争点之一。面对计算机专家辩称算法具有“财产性利益”,并拒绝展示算法相关信息亦拒绝被告检视代码的做法,法院如此说理:由于计算机具备以极具说服力的格式包装错误的或误导性的数据的能力,计算机化的仿真或计算,应严格遵从适用于专家证据的可采性规则,利用不正确的证据进行演算“比一文不值还要糟糕(worse than worthless)”。于是,相较其他工程领域的证据,对算法应施加“更高的准确性要求”。据此,原告应提交“与相应专家所依赖的程序有关的信息”,或应使法庭或被告“得以知晓基于算法的结果是否完整或准确”,原告前述做法未能实现二者之任一,故法庭裁定相应证据不可采。

   随着研究的深入,“算法生成证据”的审查规则不断细化。针对算法输入,需审查数据来源为何、如何处理原始数据、是否具备数据纠错以及何种纠错措施、对数据生成过程的其他认识;针对算法运行,需审查算法对输入数据各种可能性的考量是否充分、算法对数据的利用是否充分、算法是否总是能够得到正确结果、算法是否处于最新版本;针对算法输出,需要审查算法是否以有效格式输出了所有相关的信息,而没有不当地压缩、隐瞒甚或误导,并审查算法输出用于何种目的,以及使用算法的当事方以何种程度、方式依赖于算法输出;针对代码文档,需要审查文档是否全面、准确、如实地反映算法实践。

   2. 算法公平的司法规则

   自20世纪60年代起,美国各地法院开始走向现代化和数字化。尽管人工智能暂时难堪大用,部分原理更加简单的算法,却开始在司法系统的日常运作中替代人。在陪审团抽选场景中,随机抽选算法很快引起围绕算法解释与算法公平的诉争。在20世纪60年代以前,抽选陪审员的过程大致如下:由当值法官或当值法官助理将符合陪审团资格的个体姓名,倒入一能转动的封闭容器,再人工搅匀,最后抽出当选名单。在计算机上运行的随机抽选算法,不但能实现类似功能,兼具有成本低廉、保存长久的优点,很快在各地法院占据了主导地位。

   然而,即使是随机抽选这样相对简单的算法,仍不时以难以解释的方式,在陪审团抽选中引致公平性问题。譬如,相较法院所在地社区各族裔的人口占比,抽选所得陪审团中各族裔占比,可能出现相当幅度的偏离。这一偏离既不符合《美国联邦宪法》第6条“不偏不倚的陪审团”裁判的规定,也会对实际裁判结果造成显著影响。随着算法的广泛运用,围绕抽取公平性的诉争,遍及算法的输入、抽取和输出等环节。例如,在U.S. v. Osorio一案中,不公平来自输入环节:算法采用同一字母标注“该个体来自一特定县”与“该个体已死亡”,于是,在检查相应个体是否可以抽选时,算法误认为居住于该县的个体均不属于可抽选范围,导致历次抽选中,无一来自该县的个体被抽中。在People v. Ramirez案中,不公平发生于输入和抽选环节之间:抽选算法根据输入,匹配、检查每一个体情况,包括是否存在重复。此案中,当地是西班牙裔聚居的社区,有姓名相近的文化。因算法依赖于“名字的前四个字母和姓是否完全相同”,来判断有无重复,导致大量实际不同的西班牙裔个体被去除。结果,尽管西班牙裔人口在当地占比26%,被抽选为陪审团的概率仅有19%。在Azania v. State案中,不公平发生于抽选环节:算法首先按居民所在县地名的字母顺序将个体排序,再由从前往后的顺序,抽出所需数量的个体。所在县地名字母序靠后的个体,被抽中的概率非常小;当不同族裔在各县间分布不均时,会导致陪审团组成中族裔占比的不公平。

面对上述种种问题,司法系统通过以下实践,(点击此处阅读下一页)


爱思想关键词小程序
本文责编:admin
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/134266.html
收藏