返回上一页 文章阅读 登录

陈景辉:人工智能的法律挑战:应该从哪里开始?

更新时间:2018-11-04 21:50:04
作者: 陈景辉  
这个部分就应当被排除在在外。于是,既有的讨论就剩下了两个关于法律实践的基本话题:人工智能能否克服传统司法裁判模式的缺陷,以及人工智能对传统科技风险的化解机制的挑战。本节就用来处理这两个问题。将它们合并处理,表面的原因当然是因为它们都属于人工智能的实践挑战,但更重要的理由在于:我认为这两个相关讨论非常脆弱。之所以这样说,是因为它们对人工智能的思考不够充分和彻底,以至于讨论的基础不太牢靠。我希望,对这两个讨论的仔细分析,将会逐渐澄清人工智能的某些特殊性,并由此获得关于人工智能关于法律挑战的整体形象,这是下一节的任务。

   (一)人工智能与司法裁判理论的性质

   依据理论家的分析,包括人工智能在内的“新科学”(neuroscience)在法律领域的运用,可以区分为三个层次:第一,在证据(proof)上,它有助于确定作为裁判基础的事实问题,但这与法律的改变没有关系,因此称不上一种挑战;第二,在法律准则(legaldoctrine)上,一旦既有法律准则无法应对新科学所引发的法律争议,那么就会引发法律的改变,因此它可能成为一种挑战;第三,在理论(theory)上,新科学有可能挑战既有的理论前提或者理论假设,所以也可能构成一种挑战。

   很明显,前面所说的理论挑战,涉及的就是第三种类型,它以“算法即法律”的主张挑战了传统的法概念。现在,就需要回头考虑法律准则领域的挑战了,也就是前面所说的实践挑战。表面上看起来,这只会存在一个形态,就是人工智能对于法律准则的挑战;但是,如果注意到“证据+法律准则”这个司法裁判的基本形式,那么人工智能同样可能在这个部分形成挑战。换言之,由于人工智能显然能够更好的发现事实,如果它还能够因为某些原因更好地做出裁判,那么人工智能将会全面改进司法裁判的得出方式,人工智能的审判将会成为司法裁判的标准形态。

   粗略的讲,如果承认司法裁判的三重功能主张:解决纠纷、将法律具体化、为未来的行动提供行动指引,那么因为在这些问题上的不同看法,可以将裁判理论大致上区分为形式主义的(Formalism)与现实主义的(Realism)。其中,形式主义认为,司法裁判必须以“法律规定”(legalstandards)作为法律决定的唯一“正当化根据”(justification);即使司法裁判必须要考虑法律规定之外的因素,但这些因素并不是以“正当化根据”的方式发挥作用;相反,现实主义则认为,法律规定并不是法律决定的唯一正当化根据,此外的经济、社会、政治以及结果上的考量等因素,必须同法律规定一起权衡,以便获得妥当的判决。

   在这个基本结构之下,人工智能、尤其是大数据对于司法裁判的介入,就基本上从属于现实主义的传统。这是因为,当面对特定案件时,人工智能不但有能力识别出同类判决的海量数据,并且将它们进行合适的分类,然后在此基础上分析、总结出基本的模型,然后再将所获得的模型应用到待决案件中,最终实现类案类判的结果。例如,面对醉酒驾驶的待决纠纷,人工智能能够将所有已经公开的同类判决找到,并从中构造出醉酒驾驶的基本模型,然后再判断出待决案件属于哪种模型,最后依据该模型作出裁判,以便实现类案类判的效果。显然,此时作为裁判正当化根据的,并不是或者至少不完全是法律规定,而是既有的生效判决(或从中获得的模型),因此这必然在基本属性上,属于某种现实主义式的裁判理论。

   正是因为在整体上,人工智能对于司法裁判的改造,仍然被传统的裁判理论所容纳,所以这尚称不上是一种挑战,这是我为什么说它是脆弱的一个原因。而且,它因此也会面对现实主义早被揭示出来的那些困难的反复折磨:一方面,由于将判决(或者由此得出的模型)视为判决的根据,而法律又是判决的根据,所以会导致一个自相矛盾的主张:判决就是法律,而传统上认为的那些“法律”不再是法律、反而是某种法律渊源;另一方面,类案类判(或同案同判)成为了司法裁判的价值追求,这甚至能够挑战依法裁判的基本前提,这种看法在多大意义上能够成立?

   虽然它大致上可以被认为从属于现实主义这个阵营,但是一个重要的方面,它又不同于现实主义,所以仅在此处,形成了人工智能对于司法裁判的挑战。这个部分,就是对于自由裁量的看法。无论是当代的形式主义、还是现实主义,它们大体上都承认:司法裁判过程中,裁判者不可避免地要运用价值判断(自由裁量),他们之间的争论主要发生在自由裁量的地位和性质的问题上。然而,人工智能对于司法裁判的介入,基本上是通过建构模型的方式,将自由裁量或价值判断这个部分排除在外。之所以出现这个结果,表面上的原因是,作为价值判断的自由裁量是无法被人工智能以理性的方式精确模型化的,或者说它无法被弱人工智能所兼容。然而,更深层次的原因,是围绕“价值(道德)判断的性质”所发生的争议。显然,“打人是错的”与“水是无色的”都是涉及真假、对错的判断,并且从弱人工智能的识别功能看,“水是无色的”这个判断“的确”是真的,但它却无法识别出“打人是错的”这个判断是真的。

   于是,人工智能在解决涉及艰难价值判断(道德悖论)的问题时,所采取的一个主要做法,是去总结人们在这个问题上的不同态度,然后根据这些态度做出决策。例如在面对“电车难题”,它要去建构出在何种情况之下,多数人认为应当压死原来轨道上的五个人、还是另外轨道上无辜的一个人;然后,再分析自己正面对的是哪种情形,最后做出压死一个人或五个人的判断。简单说,由于弱人工智能本身并无能力做出价值判断,因此人工智能一旦统治了审判,那么它会将价值判断彻底驱逐出去,这在事实上会贬低道德判断重要性,这严重挑战了人的道德主体的地位。

   (二)针对性的解决策略

   法律如何应对科技挑战是个老旧的话题。只要存在着科技上的点滴进步以及由此带来的社会生活的某种改变,都会给建立在过去基础之上、无法准确预测未来的实在法体系造成困扰。不过,这些困扰并不一定能够被视为对实在法体系的“挑战”,因为法体系本身所拥有的某些特点、尤其是它必然存在的解释空间,会使得某些新出现的情况能够被这些部分所容纳。例如在电气时代的“电”这种无体物能否成为盗窃罪的客体,不会太久地困扰着刑法学者。当然,另外一些新出新的情况却无法以如此简单的方式解决掉,它必须要做某些法律上的修正或者创造,这至少在当时构成了科技对法律的挑战。例如大工业的时代为应对产品质量所带来的损害,某种类型的严格责任就会被创造出来,取代了传统上的过错责任。

   由于人工智能对于我们的生活的影响是全面的,以至于很多讨论者不加反思地认为,这些影响会对法律构成挑战。然而情形并非总是如此。如果承认以下这个区分,那么人工智能所引发的实践问题仍然可以在这个框架内解决,那么它们就无法被视为“对法律的挑战”,因为这意味着,实在法体系本身足以应对这些问题,而无需做出某些改变。显然,特定法律规定的含义,可以区分为“字面意义”与“体系意义”。其中,字面意义主要是依赖于语词的含义来获得,例如“交通肇事致人死亡,为交通肇事罪”中的“死亡”,在字面上必然包括自然死亡与宣告死亡两种类型;相应的,“体系意义”具有明显的理论性,它依赖于对“法体系”本身的某种理论来获得,同样是交通肇事罪的例子,基于对刑法的不同认识,可能获得交通肇事罪只针对造成他人自然死亡结果的情形。

   以这个标准来反省人工智能引发的问题,就会发现其中的很多部分根本就不是“对法律的挑战”,虽然人工智能的运用在其中起到了非常重要的作用。这就是我为什么认为这种讨论非常脆弱的核心原因。最明显的例子是“快播案”:一个本身并不含有淫秽视频的、技术中立的播放器软件,由于被单个用户用来观看淫秽视频,那么这个视频就可以被其他用户分享,由此成为某种淫秽物品的“传播”,那么快播公司是否成立犯罪?显然,你是否认为这构成犯罪,你所真正关心的其实都不是快播软件本身,而是“刑法应当如何面对中立帮助行为”这件事情;如果讨论者能够在后一个问题上获得了论证优势,那么他的看法就具有了充分的法律根据。类似的情况非常多,在我看来,几乎所有类型的网络犯罪,基本上都可以在实在法体系中获得解决,因此都不能被视为一种挑战。同理,像前面提到的自动驾驶汽车引发的法律责任问题,同样也能够在实在法体系中得到解决,也不能被视为一种挑战。

   其中的基本标准是:一旦能够将该法律问题中的人工智能视为纯粹的工具,那么此时争论的核心就转向了人、而不是作为工具的人工智能,此时法律问题与人工智能问题就可以被分别来处理,并且其中对人工智能的看法并不影响对法律的看法,这就不成其为“人工智能对法律的挑战”。反之,如果无法将人工智能的问题与法律问题区别开来,并且对人工智能的看法将会影响到法律上的看法,那么这就构成了人工智能对于法律的挑战。最为典型的例子,就是人工智能作品的著作权问题。一种看法认为,人工智能作品,由于无法体现创作者的个性,因此不能被视为真正的作品,也无法以著作权的方式来加以保护;对应的看法认为,由于人工智能具有创强的学习能力,因此它所创作出来的智力成果与人的作品之间并没有区别,因此仍然应当以著作权的方式来加以保护。显然,无论是论辩的哪一方,他们都必须直面人工智能这个问题,并通过论证或至少预设了某种特定的立场,来支持自己在法律问题上的主张。也就是说,这个话题不能离开人工智能的地位问题而单独展开,依据如上的标准,这的确是一种人工智能对于法律的挑战。


三、人工智能的特殊性


   显然,从两个脆弱性的讨论中,可以得出这样的教训:如果仅仅将人工智能视为一个跟法律相关的话题,并且将二者简单嫁接在一起,将会导致方向上的混乱和结论的任意。这迫使讨论者必须回头重新思考人工智能这件事情的性质,然后再将它跟法律上的讨论以正确的方式联系起来,才可能找到稳妥的讨论方向,由此获得的结论才具备可信性。在我看来,人工智能之所以引发如此广泛而热烈的讨论,是因为它在某一点上明显区别与关于其他的科技问题,这就是人作为人的地位。如果没有注意到这一点,那么讨论就会缺乏针对性。

   在起点上,在所有关于科学的话题中,首先需要注意的是,要区分作为“知识探寻”的科学与“作为知识运用”的科技。由于科学与知识联系在一起,并且知识被视为人类所拥有的“内在价值”之一而存在,因此它受到“学术自由”的严格保护,对它的任何限制都是缺乏充分理由的。然而,科技是不同的,作为科学(知识)的运用,它必然同“我们的生活”联系在一起:如果它能给我们的生活带来好处,那么它就应当获得鼓励和支持;反之,对它的限制就具备充分的理由,且法律必然是其中最有力的限制方式。因此,作为纯粹知识探寻的人工智能研究,无法以任何理由来加以限制;然而,作为知识运用的人工智能实践,却因为会制造新的社会问题而需要法律应对,甚至因为引发了严重的危险,而成为被限制的对象。

      但是,不同于传统的科技问题,人工智能所引发的问题具备明显的特殊性,这给相应的回应方式也带来很多的麻烦。其中最重要的差异在于,传统的科技运用,能够明显的区分出运用的主体与运用的工具这两个不同的部分。其中,运用的主体就是人类,而运用的工具就是科技成果。例如,人类发明了汽车这样的交通工具,人类就是汽车的驾驶者(运用者),而汽车是人类使用的工具。此时,科技是以“工具”的形象出现的,它之所以要被发明出来,(点击此处阅读下一页)


爱思想关键词小程序
本文责编:limei
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/113223.html
文章来源:《比较法研究》2018年第5期
收藏