返回上一页 文章阅读 登录

陈景辉:算法的法律性质:言论、商业秘密还是正当程序?

更新时间:2020-11-26 22:56:39
作者: 陈景辉  
然而,这种看法本身是自我溃败的,由于篇幅所限,在此我只能给出一个简单但有力的反问:[11]“效率”本身难道不是一种价值吗?如果为了避免价值争议,从而采取貌似客观的成本-效益分析方法,那么这种方法不是仍然预先承诺了效率这个价值(的优先性)吗?为什么承诺效率这种价值就是合理的,而承诺其他类型的价值就是值得批评的?[12]不过,无论最终那个理由是什么,显然,都无法动用“价值判断本身的缺陷”这个理由,因为效率也是一个价值。进而,如果你说这是因为法律中虽然包括价值,但算法中不包括价值;但是,这不是又对第一个条件形成了反对吗?因为,这实际上意味着法律和算法是两类性质不同的事物。既然如此,也就不存在法律的算法化,当然也不存在算法的法律化,最后的结果只能是:算法以工具化的方式帮助法律更好地实现自己的任务。一旦做到这一步,法律介入算法的诸种障碍都将被排除,以什么方式介入就成为讨论的重点。

  

   二、法律对算法的介入:方法论与基本主张

  

   承认了法律可以介入某一领域,接下来的任务就是来说明,法律应当以何种方式来介入,并且这种做法是合理的。显然,要想保障这种介入方式的合理性,就必须依靠一套有效的方法论来实现。理想的情况是,这套方法论确保法律只能以单一的方式介入该领域,那么问题就将无争议地获得解决。然而,这通常不是真实的情形,事实上,在有效的方法论的指引下,法律仍然还有多种具体的介入方式。此时,就需要在这些介入方式之间进行论辩,来证明为何特定的介入方式明显优于其他的方式。是否更优或者是否更好,这不完全是个道德判断,即某种方式拥有更加明显的道德优点;它同时也会包含着一个认知性的判断(epistemic judgment),即这种介入方式是否更多地容纳了该领域中那些不可忽视的特性。因此,文章本部分的任务有两个,一方面是说明方法论的基本要求,另一方面是说明相互竞争的两种不同的看法,以便为文章在下一部分的批评与重新建构,提供理论上的充足准备。

   (一)方法论的基本框架

   在表面上,法律对某一领域的介入,相当于将该领域的争议性问题“转译成”(translate into)法律上的问题。科技的进步,经常意味着在事实上创造出一个全新的领域;但由于“转译为法律”这件事情的存在,它在法律上其实仍然可能只是老生常谈。[13]例如,在电气化的时代,“偷电算不算盗窃”在一开始就是一个争议性的问题,因为在这之前的财产基本上是有体物,而“电能”显然并非如此。对于这个争议性问题,所采取的、也是一直沿用至今的转移方式是,将“电(能)”转译为法律上的“物/财产”,从而使得“偷电”也成为一种盗窃的具体形态而已,尽管它是盗窃的新形态。显然,这项转译工作,一方面依赖于对“电(能)”是否具有财产属性的判断,也依赖于法律对于“(私有)财产”的保护。简单地说,转译工作是否成功,一方面依赖于被转译事项的属性判断,另一个方面依赖于对法律的性质判断。如果在这两个方面都是成功的,那么特定的转译就是成立的。

   对于算法这件事情而言,要想把它转译为法律(上的事项),也需要同时完成以上两个方面的作业。在算法的时代,最主要的争议是什么?显然是以下两个相互冲突的事实:其一,算法黑箱(algorithmic black box);其二,算法操纵(algorithmic manipulation or control)。所谓算法黑箱,指的是对算法拥有者或设计者之外的人而言,算法是一个工作机制非常神秘的系统,人们只能观测到它的输入与输出,而无法知道它如何将输入的内容变成输出的结果。[14]所谓算法操纵,指的是由于算法越来越普遍而广泛地影响我们的生活,于是算法就操纵或控制了我们的生活。[15]必须注意,“算法操纵”这个语词,实际上是在陈述算法所带来的损害,这既包括“抽象的伤害”,即由于算法对人们生活的操纵,因为伤害了“自治”(autonomy)这个价值;这也包括具体的伤害,例如同物不同价的算法(大数据)杀熟、给予不利地位对待的算法歧视,等等。

   虽然在汉语中,“黑箱”很容易引发操纵或者不公平的联想(例如老师选班长的过程被描述为黑箱),并且算法操纵的确跟算法黑箱有关系,但是算法黑箱这个语词还主要是一种事实性的中立描述,它在一开始只是陈述了一个算法拥有者或编写者之外的其他人,在面对算法时的事实状况。或者这样说,即使存在某种关于决策的黑箱,这也并不意味着紧接着就会引发操纵或者不公平之类的损害。例如,我决定跟谁结婚、跟谁做朋友,这个决定是“大脑黑箱”的结果,[16]但并不意味着对我的妻子和朋友而言,那是受到我操纵的不利结果,我又不是一个会催眠术的情感骗子。理解了这一点,就导致“打破黑箱”或者“主张算法的透明性”并不自动就是当然的结果,因为算法黑箱并不是在一开始就是一个需要负面评价的现象。而那些“打破黑箱”或“算法的透明性”的主张者,就需要其他的理由来支持自己的立场。

   现在需要考虑算法黑箱和算法操纵的法律转译问题了。如前所述,这首先需要对法律这件事情作出某种判断。受制于篇幅,[17]让我假定法律是一种评价性或者价值性的事业(normative enterprise),这表明,特定的法律,要么本身就代表某种价值判断——例如民法对于私法自治的肯定,要么提供了某种价值冲突的解决方案——例如“对格式条款的理解发生争议的,应当按照通常理解予以解释”。[18]尤其是价值冲突问题,它在一开始就承认了存在着两个或者多个至少具备初步正当性的价值,并且这些价值之间无法同时获得,这时候就要去权衡,这或者表现为对某个价值的完全抛弃——例如生命财产冲突中的紧急避险,或者表现为多个价值之间的权衡关系——例如私有财产与公共利益之间的税收征收比例,[19]等等。

   有了这些准备,现在就可以明白算法问题在法律上的转译结果了:由于算法黑箱并不当然承载负面价值,所以它是一个值得法律保护的事项,而“避免算法操纵”是另外一个值得法律保护的事项,于是算法黑箱与避免算法操纵之间就形成了价值上的冲突关系。面对这种算法上的价值冲突,紧接着进行的操作,就是决定是彻底抛弃其中的一个价值,还是提供某种价值之间的特定权衡关系。表面上看起来,提供某种权衡关系可能是更自然的选择,因为算法黑箱与避免算法操纵都具备初步的正当性。然而,就像接下来看到的一样,与这个判断正好相反,最常被采取的做法是彻底或完全抛弃其中的一方,而这一方经常是“避免算法操纵”这个跟人们的利益联系更为紧密的一方。

   (二)言论与商业秘密

   到目前为止,至少有两件事情是清楚的:其一,算法问题可以在法律上被转译为价值冲突的问题,算法黑箱是一方,而避免算法操纵是另外一方;其二,算法操纵会引发某种利益上的损害,[20]所以需要法律上的限制。于是,关键的问题是,算法黑箱在法律上可以被进一步转译为什么内容,并且这种特定的转译结果,将会影响到对于算法黑箱与避免算法操纵这个价值冲突的解决方案。显然,一个直觉的看法是:要在两者之间寻求一定的权衡关系,以合理安排算法黑箱与避免算法操纵各自的分量。就算法黑箱而言,这意味着要实现某种程度上的算法透明性(以及由此而来的算法的可解释性);如果支持者还进一步主张基于自治价值的要求,应当彻底避免算法黑箱,那么算法的彻底透明性就会成为最终的结果。于是,法律对算法的介入,就成为对某种程度的算法透明性(transparency)的要求,这变成了唯一的答案。[21]

   然而,法律实践再次打脸法律理论(上的直觉),它反而采取了对算法黑箱的保护,而彻底放弃对因算法操纵所侵害的那些利益的保护。这是因为,法律实践者发现,算法黑箱在法律上所能被转译的内容,一点儿不支持算法透明性的要求。美国法官在面对一系列与算法有关的诉讼时,他们都认同了“将算法(黑箱)视为(转译为)言论”的做法,并且由于“言论自由”这个宪法上的绝对权利(absolute rights)所拥有的不可被剥夺的性质,[22]所以被放弃的就只能是算法操纵所侵害的那些利益。这是因为,无论以何种方式来理解言论自由这个宪法权利,它因为有助于某种“民主文化”的形成与保持,而民主文化本身是一种有利于所有人的“公共善”(public good),所以为它付出某种利益上的损害的代价是合理的,[23]即使这个代价是被算法所操纵。当然,会有这样的反驳,由于算法操纵对个人的自治造成了损害,而个人自治本身也是最重要的道德和政治理想,因此不应当直接因为言论自由而放弃个人自治。但是,由于个人自治同样也需要民主文化的养护,[24]所以这样的反驳至少在道德上的力度依然有限。[25]此外,刚才提到的言论自由之绝对权利的性质,导致在法律上对它提供彻底的保护,成为唯一合适的选择。

   不过,将算法黑箱转译为言论,并不是实践上的唯一做法。在发生于2016年的威斯康星州的Loomis 案中,法官将关于量刑的特定算法看作商业秘密来对待。[26]在商业秘密的问题上(,美国)法官通常认为它应当受到严格的保护,否则相关的知识产权将会受到严重侵犯,而知识产权的被侵犯将会阻止科技进步,而这将会严重地侵害人民的福祉(well-being)。所以,基于如上考虑,商业秘密获得了如同言论(自由)一样的法律保护效果,它也将算法操纵视为可以合理付出的代价。于是,法官必然不会要求算法的拥有者公开算法代码,更不会要求拥有者以人们能听懂的方式,向公众说明该算法的工作原理,算法黑箱就因此被视为算法的正常情形。

   无论是将算法视为言论(自由),还是视为商业秘密,这都会导致一个非常尴尬的处境:虽然花费巨大的功夫才证明法律介入算法的正当性,但是由于只能以这两种方式面对算法,这实际上等于对法律介入算法之可能性的否定。简单地说,这使得“法律介入或规制算法”变成了屠龙术,屠龙的技艺倒是掌握了,但龙却消失了。如果结果就是这个样子,那还不如在一开始,就干脆主张法律无法介入算法,省得废了半天的劲儿,最后只能接受在开始就应当接受的结果。我过去已经写下的一万字是无用功吗?还有讨论法律介入算法的新可能性吗?新的道路又在哪里?

  

   三、言论自由与算法权力

  

   虽然美国的法官作出了保护“算法黑箱”的决定,并且这当然获得了法律上的效果,但是这在理论上仍然需要检验。如果这种看法在理论上也是成立的,那么它不但具备法律上的效力,而且也拥有了理论上的正当性。本节将首先检验这两个主张在理论上会面对的难题,由于商业秘密的说法轻度更低,所以我将集中讨论言论自由所面对的难题;然后,我将重新引入一个经常被提及的“算法权力”这个概念,而且它的加入将会改变过去的论证结构;最后,我将重新说明这篇文章的任务,即理论家必须提出一个能够同时容纳算法黑箱、算法操纵与算法权力这三件事情的理论框架,这就是文章下一节的任务。

   (一)算法与言论

现在稍作停留,来回顾一下文章的论证任务:在算法的问题上,同时存在着算法黑箱和算法操纵这两件事情;如果法律对算法的介入,是为了避免算法操纵所引发的那些损害,那么它必然将面临算法黑箱的挑战;换句话说,为了避免算法操纵,可依赖唯一的做法,就是攻破算法黑箱,使得算法透明化。然而,无论算法是言论(自由)还是商业秘密,它都会为算法黑箱提供强大的保护,于是算法操纵就成为一个无解的问题了。如果此时仍然有谈论“法律介入算法”这件事情的正当性,那么它的目标就不再是改变或扭转算法的操纵,而是对算法黑箱提供充分的保护。除非,反对者能够证明算法不是言论或者商业秘密,否则就只能接受算法操纵的结果。就像选择了民主的制度就得接受民选领袖可能很愚蠢的结果,(点击此处阅读下一页)


爱思想关键词小程序
本文责编:陈冬冬
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/123675.html
收藏