返回上一页 文章阅读 登录

刘瑞瑞:人工智能时代背景下的刑事责任主体化资格问题探析

更新时间:2021-12-08 10:17:41
作者: 刘瑞瑞  
但需要指明的是,该研究思路也在某种程度上忽视了对法之内在逻辑研究的重要性。进言之:

  

   (一)不牢靠的根基:人工智能及科技发展程度的不确定性

  

   人工智能对社会发展可能带来的影响是人类关注的主要问题,但是究竟能发展到什么程度是无法预测或确认的,人工智能发展程度的不确定性不适合或决定了其无法作为法律责任主体资格界定的理论出发点。目前支持人工智能犯罪主体化的学者主要是以人工智能可能出现的状态作为探讨的基础,故而有观点认为人工智能主体资格问题与人工智能化程度是密切相关的,体现了以科技发展为导向的研究角度。因而,现在刑法学关于人工智能的研究主要关注人工智能的智能化问题,从智力发展水平考虑人工智能实施行为的独立性与智能性,探讨在将来可能出现的人工智能具有独立思维,自主支配行为的可能性,以此为基础论证人工智能成为责任主体的可能性。其中,具有代表性的观点是根据人工智能不同的发展阶段所展现出的智能化程度的不同将人工智能分为弱人工智能和强人工智能,弱人工智能和强人工智能不仅代表着人工智能的阶段划分,也决定着人工智能的性质界定。弱人工智能因智能化较低,与人类的思考、判断能力差距较大,拟人化程度不高,依然被视为人类的工具,因而在刑法学领域对弱人工智能的研究也仅限于犯罪对象或犯罪工具的研究,与主体资格毫无关系,不能成为刑事责任的主体。强人工智能的突出特点在于智能化的提高,如有学者认为,“强人工智能体能在人类的设计编程之外实施行为具有独立意志,且与人类相比具有更强的控制能力与可培养的辨认能力,可以成为刑事责任的主体”。④ 否定说中有学者坚决反对人工智能成为责任主体,其认为“未来已来,但是不是说来就来,主张人工智能体具有主体,尚不具有现实意义”。⑤ 还有的学者认为“人工智能系统对其活动的法律规范意义不可能具有自主性认识,不可能具有刑法意义上的辨认、控制能力,刑法不应将其作为刑事责任主体”。⑥ 可见,无论是肯定论者还是否定论者在论证角度上都不约而同地选择了关注于智能化的差异程度,一种是人工智能之间的比较,一种是人工智能与人的比较,关注人工智能所具有的辨认和控制能力和人类的辨认和控制能力是否同质,是否能相提并论。

  

   不过,必须指明的是,以人工智能的发展趋势预测人工智能作为刑事责任主体的可能性,这一思路是存在一定问题的。一方面,人工智能最终会发展到怎样的程度是我们难以预测的,人工智能可能存在飞跃式、跨越式的发展,其突破能力将超出人类的想象。法学研究以难以预测的结果作为出发点本身就值得商榷,而且人工智能的发展也是持续不断的,无论何时都不可能存在或达到最终结果,按此思路研究人工智能的刑事责任主体问题也是难以获得最终答案的。另一方面,人工智能的智能化程度也无法从客观的角度确立标准来界定人工智能是否应该承担刑事责任。人工智能的“智能化”是与人类的比较而产生的,这几乎决定了不可能提供具体的数值作为智能化判断的标准,也就无法提供主体化的明确标准。这种研究角度的偏差在于科学技术的不可预测性,或不可全面预测性与法的明确指引性之间的冲突。所以,对该问题的研究依靠以科技发展为导向的论证思路是无法完成的。

  

   (二)根据法之内在逻辑推理:解决人工智能责任主体化问题的路径选择

  

   1. 回归法之内在逻辑:明确人工智能责任主体化问题的出发点

  

   需要指出,人工智能犯罪主体化问题其实与人工智能技术的发展程度之间没有必然的联系。既然以科技发展为导向的研究思路不可取,那么将人工智能作为一种背景,以法学的视角研究该问题是否具有更大的合理性呢?这取决于研究的内容。如果我们对人工智能的研究是以工具为特点的研究,那么人工智能的科技特点所起的作为就非常明显,需要根据人工智能不同发展阶段的科技特点去评价行为主体的行为特征以及行为的危害性。就如同我们在探讨网络犯罪问题时,需要对网络本身的特点加以了解,才能准确界定通过网络实施的犯罪行为的特点及危害。但是,在探讨人工智能责任主体身份问题时,人工智能在科技上的特点以及它的发展趋势都不是刑法学关注的重点,甚至可以在某种程度上予以忽略。因为所谓的人工智能只是为我们提供了一种研究背景——可能出现具有高智能的工具,我们是否需要它给予主体地位,也就是权力能力。人工智能是否应该拥有主体地位不是智能化的程度问题,而是主体地位的性质问题——什么是权利能力——由谁赋予。该问题的探讨涉及的是法学的本质问题,要在法学范围内探讨,与科技的发展无关。进言之,尽管人工智能的发展状况具有不可预测性,不能作为判断人工智能主体化的标准,但是依据法的内在逻辑进行推理却能获得明确的答案,是解决该问题较为合理的路径选择。

  

   法的逻辑推理即使是对可能出现的情况或问题进行预判,其立足点是且依然是既有的法律规定,而且这些规定都存在着内在的逻辑关系。人工智能是否能具有刑事责任主体资格要进行法律推理的主要因素有:法秩序的范围、人的主体地位、法律构建者与人工智能的基本关系等,这些前提在法律层面都有明确规定。通过逻辑推理,可以从法的性质角度准确评估人类与人工智能的关系,既包括现在的关系,也包括将来的关系,以关系定位为基础,人工智能是否或应不应该获得刑事责任主体身份的问题也就迎刃而解了。

  

   2. 回归法律建构之主体意志:以“人”为核心的法秩序

  

   人工智能以智能化程度为标准基本可以分为三个阶段,即弱于人类的人工智能、相当于人类智力的人工智能以及超越人类智力的人工智能。弱于人类智力的人工智能是当今人工智能的特点,否定它具有刑事责任主体资格是不存在争议的,但是对第二种与第三种情況下人工智能能否主体化有不同的观点。有学者认为考虑到人工智能在未来犯罪中发挥的作用,以及自主行为意识和能力的不断提高, 逐步确认智能主体的刑法地位是具有合理性的。

  

   实际上,人工智能是否能主体化主要取决于两个方面:一是以人为核心的法秩序中人与人工智能的关系定位;二是刑法调整的必要性。一方面,以“人”为核心的法秩序框架其实否定了人工智能主体化的可能性。随着人工智能的智能程度持续提高,人工智能的智力水平在将来可能会等于或高于人类,有的学者认为这种情况下还将人工智能仅仅作为工具对待是不合适的,因此提出人工智能主体化的观点,但这种观点没有考虑问题探讨的基本范围——现有法秩序框架下,超出该范围问题的性质就会发生实质改变。申言之,一定要在现有的法秩序的框架下探讨刑事责任主体化资格问题,现有的立法包括刑事立法在内都是以“人”为核心构建的,这体现在两个方面:一是“人”是法秩序唯一的构建者,即现有的法是“人”的意志的表达,所有与法有关的事实、状态、行为以及参与者都会依据立法者的意志界定性质、明确地位。“人”在法秩序构建过程中的主导性排除了其他主体存在的可能性,包括人工智能。虽然在法律关系中国家以及各种组织也是法律关系的主体,但究其实质都是以“人”为基础,不同形式的“人”的组合体,而人工智能也不具有这一性质。因此,只有“人”是立法的主导者,具有主体地位,而人以外的其他行为体都不会获得主体地位。二是如果肯定人工智能的主体地位,那么现在以“人”为核心与逻辑起点的刑事立法会带来颠覆性的改变,我们就是在探讨未知的某种刑法典。现在以人为中心的法秩序,“人”不但是法秩序的唯一构建者,而且法也是为调整人类社会而产生的,所有法律制度确立的标准都是以“人”为基础的。无论人工智能的能力有多强,有多接近人,但毕竟不是人,不能与人相等同,现有法律直接将其作为“人”来调整在逻辑上是悖论;而且,现有法律体系中的概念、原则、规则等都是以“人”为基础制定的,如果承认人工智能拥有主体地位,其现有体系基本要全面修改,变化参考系,最起码要将人工智能作为参考系,那就会导致新的法秩序的形成,原有法秩序的瓦解。学者们对非人类构建的法秩序中相关法律问题的研究基本是以空想为基础,缺乏现实意义。

  

   概言之,法是人的意志的表达,所以法是按照人的意志构建的。在人工智能与人的关系中,人的意志或意图已经决定了人工智能的地位——法律关系的客体。从性质而言,人工智能与其他工具一样,都是具有一定功能,能满足人类的某种需要,工具性是他们共同的特征,只是性能与重要性上的区分。人类制造人工智能的意图是明确的,就是掌控并利用它为人类服务。人工智能的发展也是以人类自身的发展提高为前提的,人工智能所获得的基本能力与所谓的自身的升级提高都是以人类的设计、制造为基础的,哪怕是出现了超出人类控制能力的人工智能,人类制造的出发点也是要掌控它,为自己所用。所以,人类利用人工智能,将其作为最有用的工具的意图是不会改变的。简而言之,在社会生活中,人类与人工智能的关系是制造者与被制造者,利用者与被利用者的关系,这与其他工具与人类的关系是相同的。人工智能无论其多么智能化,在人类社会中发挥着多么重要的作用,其本质是无法改变的——人类不断进化的工具。因此,人类从自身的利益出发,无论人工智能如何发展,最符合人类意志的关系是人与工具的关系,这是人类发明人工智能的本意。在现有的法秩序下人类是构建者,人工智能即使拥有较高的能力,包括思考能力,但是能否获得人格是需要法律的确认的,而法律是否确认人工智能的人格取决于法律构建者——人的意志。人作为法律秩序的构建者,为维护对自己有利的秩序与社会分工,必然也会排除人工智能获得主体地位的可能性。

  

   三、刑事立法的包容与延展:对人工智能刑事责任主体化资格问题的再思考

  

有的学者预测人工智能将来在智力方面有可能超越人类,甚至能控制人类,所以从能力角度应该具有主体地位,乃至有学者认为“从人工智能的发展态势看问题,人工智能将来会具有像人那样甚或超过人的犯罪能力,故一旦承认人工智能的犯罪主体地位,则将出现人工智能统治人甚至消灭人的局面或悲剧,故人工智能的犯罪主体化不是‘能与不能的问题,而是‘应不应该的问题”。⑦ 从人工智能的发展趋势角度看,存在此种担忧是合理的,而从法律角度来看这一科技发展趋向予以观省则会得知,人与人工智能是否都应该具有主体地位关键不在于谁更聪明,而在于谁拥有了立法的主导权,而并非所谓的认知、思考能力。人类拥有按自己意愿构建法秩序的能力时,便拥有独一无二的主体地位;一旦丧失了这种能力,而被人工智能所取而代之时,不是要不要给人工智能法律主体地位,而是在新构建的法秩序中,人处于什么样的地位的问题——只是这种假设已经超出了我们探讨此问题的基本社会背景。人工智能是否能主体化要在现有法秩序的框架下探讨,而在现有的法秩序框架下,人类依然是法秩序的构建者、主导者,是按人类所拥有的物质生活条件及意图所形成的法体系。人工智能只是体现了社会生活某些方面的变化,使人类无论是出于主动也好被动也罢,从立法的应然性出发要作出的适当调整,但是人类作为主导者构建法秩序的实质是没有改变的。如果人工智能在智力方面已经超越人类,实际上探讨的范围或基础已经发生实质的改变,法秩序的构建者可能已经转变为人工智能,或者最起码人类不是唯一的主导者,不具有绝对的话语权,在此种情况下问题已经不是探讨人工智能是否可以犯罪主体化了,而是由谁来构建法秩序框架,人类在新的法秩序中已经转化为何种身份的问题。进一步说,刑事立法的容纳性否定了人工智能主体化的必要性。人工智能主体化之所以被提及是因为有些学者担忧在将来因为人工智能不具有主体资格而导致刑事责任的追究难以实现,(点击此处阅读下一页)


爱思想关键词小程序
本文责编:陈冬冬
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/130211.html
文章来源:江汉论坛 2021年11期
收藏