刘瑞瑞:人工智能时代背景下的刑事责任主体化资格问题探析

选择字号:   本文共阅读 716 次 更新时间:2021-12-08 10:17

进入专题: 人工智能   责任主体  

刘瑞瑞  

摘要:人工智能的快速发展引发了刑法学界是否需要改变传统的刑事责任主体范围,赋予人工智能刑事责任主体资格的争论。对人工智能是否能成为刑事责任主体这一问题的探讨,在某种意义上是法学领域,即是否有必要在法律层面上设计或设置某一新型主体以应对科技发展所带来的诸多崭新问题。人工智能的发展程度不是决定人工智能能否承担刑事责任的根据,在现有的法秩序框架下,人类作为法律构建者的身份已经决定了人与人工智能的关系,进而否定了人工智能作为刑事责任主体的可能性。


关键词:人工智能;责任主体;智能化;法秩序


基金项目:中国—上海合作组织国际司法交流合作基地研究基金项目“基于全球营商环境报告的上合相关国家法律风险研究”(19SHJD001)、“基于法治指数的一带一路国家金融法律风险识别及对策路径研究”(CNSC017021)


中图分类号:D924.3    文献标识码:A    文章编号:1003-854X(2021)11-0105-06


随着当今社会科技的高速发展,人工智能逐步拓展到社会经济生活的各个层面,目前已在众多领域对人类的社会生活及社会组织形态产生了十分深刻的决定性影响。已有学者宣称人工智能是未来40年对人类影响最大的技术进步之一,这场科技革命对几乎所有领域都产生了较为明显的冲击效应,同样也对法学研究提出了全新的挑战。人工智能的最大特点在于智能化,这种类似与人类的智能,或者与人类智能具有相似性的特点导致人工智能性质界定产生了较大争议,尤其是智能化程度所带来的人格性特征的增强使人工智能与“人”之间的界限变得模糊。在刑法研究领域,人工智能与刑事责任之间的关系探讨也就成为热点问题,在一定程度上超出了传统的“人”与工具的范畴,因此有学者提出人工智能刑事责任主体化的观点。目前,人工智能是否有主体化的可能性在学界存在不同的观点,从研究的理性与严谨性角度出发理应首先要厘清两个基本问题:一是该问题研究的路径选择——以科技发展为导向,还是以法的逻辑推理为基础;二是该问题尽管是指向未来的社会发展状况下的立法问题研究,探讨的前提是设置在现有的法秩序框架下,还是超出人类主导的法秩序框架下的研究。


本文将首先梳理总结人工智能时代下刑法领域在理论层面的主要应对策略及研究进路,破题人工智能刑事责任主体化的理论争议,重点分析主体化理论的逻辑前提与内在理路,在对其理论预设中所存在的问题予以批判的基础上提出破解人工智能刑事责任主体资格问题的思路,即回归法之内在逻辑,在既有的刑法系统中对人工智能所可能带来的新问题予以兼容与调试。这与以“人”为核心的法秩序的建构具有密切关联,通过对人工智能刑事责任主体化资格问题的再思考,重申或再次审视人工智能时代条件下刑事立法的包容性與延展性特质。显而易见,新生事物的涌现必然会对既有的理论与实践体系产生一定程度的影响,当这种影响突破某个临界点时则可能引发带有根本性质的变革;对人工智能发展的想象或预测似乎怎样都不过分,不过就法律领域而言这种想象或预测也不应一味夸大,尤其是落实在制度及规则的设计层面则更要审慎。法律系统对现实世界的回应、关照与调适从未停止过,在此意义上,法律系统始终是动态的、更新的、变化着的,一些“老瓶”早已装上了“新酒”,人工智能时代的理论供给并不只是或不应仅仅是制造出某些新的概念,更重要的是还包括对既有的系统进行重新认识与理解,这在法律领域特别是刑法领域尤其关键。


一、人工智能时代刑法的理论供给:面对人工智能刑事责任主体化的“诱惑”


对人工智能刑事责任主体化的探讨构成了当前刑法学界争议较大的基础性理论问题之一,伴随人工智能的发展及其影响力的扩大,可以预见的是,对该问题的探讨将不断持续与深化。实际上,人工智能的主体化作为迈向人工智能时代的法律“元问题”已贯穿法理学及各个部门法领域,无论对这一“元问题”持何种立场,它都不会被回避。即是说,对人工智能主体化问题的探讨构成了人工智能时代法学领域第一波理论供给,如在知识产权法领域对人工智能是否可作为或视为著作权主体已产出了诸多相关研究成果。应当说,围绕人工智能主体化或更准确地说,人工智能是否主体化这一法律“元问题”,面对将人工智能主体化的“诱惑”,各部门法都从各自领域的特点及面临的(可能)挑战为切入点提出了不同的理解模式及相应的应对策略。在此意义上,这一人工智能时代的法律“元问题”构成了展开相关问题研究的逻辑起点,也成为划分、区分多种应对策略的性质及观点的一条重要标准。


(一)“诱惑”下的“试错”:设计人工智能承担刑事责任类型研究进路


就刑法领域而言,有可与其他部门法共享的智识资源,也具有一定的特殊性。总的来看,目前的相关研究大致可归为两类:一是将人工智能视为刑事责任可能的主体,直接探讨人工智能承担刑事责任的类型;二是探讨人工智能是否能成为刑事责任的主体。研究人工智能承担责任类型的学者主要着眼于未来人工智能的发展,认为人工智能在智力方面可能会获得与人类相当的能力,甚至有超越人类思维的可能性。此种研究是以人工智能的快速发展为基础,预判人工智能在具有独立意识的情况下与人类如何划分刑事责任问题,进而提出可能出现的若干种刑事责任承担模式。例如,有学者认为根据“侵害行为”发生于程序设计和编制范围的内外来认定其辨认和控制能力的有无,进而判断智能机器人是否具有刑事责任主体资格。① 可见此种观点(或此一类型观点)是在一定范围内承认了人工智能承担刑事责任的可能性,只是因为不同主体在犯罪中起到的作用与行为性质不同而导致不同的责任承担方式而已。此种思考路径在表面上看似乎避开了目前人工智能探讨刑事责任主体的“障碍”,转而在具体的操作层面或微观层面对某种行为或现象依据一定的原则或判断标准予以剥离或细化,试图通过区分人与人工智能的行为来确定责任承担的条件与程度。可以看到,面对人工智能刑事责任主体化的“诱惑”,此类研究进路试图在具体的制度设计层面对人工智能具有刑事责任主体资格予以有限承认,并在此认知基础上进行“试验”或“试错”,对承担主体责任在一定程度上进行评估或预测,而将一些基础性的理论问题先行“悬置”,就此观察或观测人工智能刑事责任主体化的效果或效应,以此来确定或判断主体化的表现及其边界。


应当说,这种思路对在考量某一具体制度设计下的人与人工智能的行为区分具有一定意义。不过,需要指明的是,这种研究策略在实质上并未真正解决问题,而是把对相关问题的探讨架构在一定的想象之上。法学研究固然需要前瞻性,根据发展趋势预测行为、状态或现象发展的可能性,为立法做必要的准备或储备,但这种预测也应具备一定的或相当程度的合理性、现实性与准确性,而这种合理性、现实性与准确性要求反映或体现在某一微观的、具体的制度设计中时则极有可能产生误差或偏差,这种误差或偏差将极大削弱研究的价值。更为关键的是,通过考量具体制度设计中的“树木”未必能因此而见整个“森林”,在思考的逻辑上,先行“悬置”的问题始终让后续的分析与推导存在一定未尽之处——正因为如此,其所提出的解决方案或策略总是犹如“隔靴搔痒”。


(二)“诱惑”下的否定与肯定:人工智能承担刑事责任的可能性之争


与上述研究思路不同,相当多的学者所关注的是人工智能承担刑事责任的可能性问题,根据人工智能的辨认能力与控制能力的性质及程度去判断人工智能是否能承担刑事责任。这方面的研究又分为否定说与肯定说两种观点。否定说即否定人工智能成为刑事责任主体的可能性,认为人工智能无论其多智能化都是人类制造的产品,都不能改变人类工具的性质,所以不应成为刑事责任的主体。如有的学者认为,“机器人没有自身积累的知识,其知识都是特定领域的且都是人类输入的,即其不具备人之心性和灵性,故其与具有‘人类智慧的自然人和自然人集合体不能简单等同,故受自然人控制的机器人尚不足以取得独立的主体地位”。② 可以看到,否定说认定人与人工智能之间存在本质区别,并从区别中寻求排斥人工智能作为一种新型主体资格的依据,坚持“人—物”的二分法,并主张继续在这种二分法框架之下来解决人工智能问题;或者说,延续二分法的基本认知而将人工智能纳入某种特殊“物”或工具的范畴予以考量。


另一种观点是区分不同的情況,而来决定人工智能是否具有刑事责任主体地位,可大致归于肯定说的范畴。该观点认为应以科技发展程度为基础判断人工智能的辨认与控制能力,主要是对人工智能发展的不同阶段人工智能所体现出的“智力能力”的不同进行比较。比如弱的人工智能阶段与强的人工智能阶段人工智能的辨认与控制能力是不同的,弱人工智能阶段不存在承担刑事责任的可能性,而强人工智能阶段则有可能。此种观点虽未完全肯定人工智能的刑事责任主体地位,但强调人工智能在今后的发展过程中因为智能性的提高而具有承担刑事责任的可能性。如有的学者认为,“强人工智能产品具有辨认能力和控制能力,能在设计和编制的程序范围外实施危害社会的行为,其具有独立人格和刑事责任能力,可以将其实施的严重危害社会的行为认定为犯罪行为并给予刑罚处罚”。③ 这种关注人工智能独立思维能力的变化对人工智能的责任能力影响的思路,主要是从科学技术角度分析人工智能责任能力的性质与特点,严格来说,属于非法学角度的研究。


从上述对否定说和肯定说两种观点分歧的简要分析中不难看出,刑法学目前对人工智能的关注重心不在于工具角度的人工智能对社会产生的危害,而是关注主体角度的人工智能所可能带来的刑事责任问题。任何研究都应以清晰的逻辑结构、正确的研究角度、合理的研究范围为基础,不过目前的人工智能主体化研究在这三个方面都尚存在一定的问题。人工智能承担刑事责任的前提是人工智能成为责任的主体,上述第一种研究思路,即设计人工智能承担刑事责任类型研究进路是以人工智能具有责任主体的可能性为基础的。但是这种可能性是否合理却没有提及,跳过主体资格去探讨人工智能承担刑事责任的模式就如同空中楼阁,在逻辑上存在一定问题。第二种研究思路实际上包含否定说与肯定说两种立场,它们都着眼于人工智能能否获得主体资格,逻辑层面固然合理,但论证人工智能是否能获得刑事主体资格的角度选择却有待商榷。而且,也许更重要的是,这两种不同的研究思路其实都回避了一个重要问题的阐述——是否以现有法秩序为研究的前提或基础。


二、回归法之内在逻辑:破解人工智能刑事责任主体资格问题的路径选择


对人工智能是否能成为刑事责任主体这一问题的探讨,在某种意义上是法学领域,即是否有必要在法律层面上设计或设置某一新型主体以应对科技发展所带来的诸多崭新问题。尽管学界对人工智能刑事主体资格这一问题持有不同观点,不过无论肯定说抑或否定说几乎都是以科技发展状况——也就是人工智能的智能化程度为标准,以此为依据来判断、评估、评价人工智能获得主体资格的可能性,这显然是以科技为导向的论证角度。该种研究思路固然充分考量了科技发展对法学研究的影响,试图通过对最新科技的及时关照与回应以达成对人工智能时代所引发诸多新问题的调整与规制,但需要指明的是,该研究思路也在某种程度上忽视了对法之内在逻辑研究的重要性。进言之:


(一)不牢靠的根基:人工智能及科技发展程度的不确定性


人工智能对社会发展可能带来的影响是人类关注的主要问题,但是究竟能发展到什么程度是无法预测或确认的,人工智能发展程度的不确定性不适合或决定了其无法作为法律责任主体资格界定的理论出发点。目前支持人工智能犯罪主体化的学者主要是以人工智能可能出现的状态作为探讨的基础,故而有观点认为人工智能主体资格问题与人工智能化程度是密切相关的,体现了以科技发展为导向的研究角度。因而,现在刑法学关于人工智能的研究主要关注人工智能的智能化问题,从智力发展水平考虑人工智能实施行为的独立性与智能性,探讨在将来可能出现的人工智能具有独立思维,自主支配行为的可能性,以此为基础论证人工智能成为责任主体的可能性。其中,具有代表性的观点是根据人工智能不同的发展阶段所展现出的智能化程度的不同将人工智能分为弱人工智能和强人工智能,弱人工智能和强人工智能不仅代表着人工智能的阶段划分,也决定着人工智能的性质界定。弱人工智能因智能化较低,与人类的思考、判断能力差距较大,拟人化程度不高,依然被视为人类的工具,因而在刑法学领域对弱人工智能的研究也仅限于犯罪对象或犯罪工具的研究,与主体资格毫无关系,不能成为刑事责任的主体。强人工智能的突出特点在于智能化的提高,如有学者认为,“强人工智能体能在人类的设计编程之外实施行为具有独立意志,且与人类相比具有更强的控制能力与可培养的辨认能力,可以成为刑事责任的主体”。④ 否定说中有学者坚决反对人工智能成为责任主体,其认为“未来已来,但是不是说来就来,主张人工智能体具有主体,尚不具有现实意义”。⑤ 还有的学者认为“人工智能系统对其活动的法律规范意义不可能具有自主性认识,不可能具有刑法意义上的辨认、控制能力,刑法不应将其作为刑事责任主体”。⑥ 可见,无论是肯定论者还是否定论者在论证角度上都不约而同地选择了关注于智能化的差异程度,一种是人工智能之间的比较,一种是人工智能与人的比较,关注人工智能所具有的辨认和控制能力和人类的辨认和控制能力是否同质,是否能相提并论。


不过,必须指明的是,以人工智能的发展趋势预测人工智能作为刑事责任主体的可能性,这一思路是存在一定问题的。一方面,人工智能最终会发展到怎样的程度是我们难以预测的,人工智能可能存在飞跃式、跨越式的发展,其突破能力将超出人类的想象。法学研究以难以预测的结果作为出发点本身就值得商榷,而且人工智能的发展也是持续不断的,无论何时都不可能存在或达到最终结果,按此思路研究人工智能的刑事责任主体问题也是难以获得最终答案的。另一方面,人工智能的智能化程度也无法从客观的角度确立标准来界定人工智能是否应该承担刑事责任。人工智能的“智能化”是与人类的比较而产生的,这几乎决定了不可能提供具体的数值作为智能化判断的标准,也就无法提供主体化的明确标准。这种研究角度的偏差在于科学技术的不可预测性,或不可全面预测性与法的明确指引性之间的冲突。所以,对该问题的研究依靠以科技发展为导向的论证思路是无法完成的。


(二)根据法之内在逻辑推理:解决人工智能责任主体化问题的路径选择


1. 回归法之内在逻辑:明确人工智能责任主体化问题的出发点


需要指出,人工智能犯罪主体化问题其实与人工智能技术的发展程度之间没有必然的联系。既然以科技发展为导向的研究思路不可取,那么将人工智能作为一种背景,以法学的视角研究该问题是否具有更大的合理性呢?这取决于研究的内容。如果我们对人工智能的研究是以工具为特点的研究,那么人工智能的科技特点所起的作为就非常明显,需要根据人工智能不同发展阶段的科技特点去评价行为主体的行为特征以及行为的危害性。就如同我们在探讨网络犯罪问题时,需要对网络本身的特点加以了解,才能准确界定通过网络实施的犯罪行为的特点及危害。但是,在探讨人工智能责任主体身份问题时,人工智能在科技上的特点以及它的发展趋势都不是刑法学关注的重点,甚至可以在某种程度上予以忽略。因为所谓的人工智能只是为我们提供了一种研究背景——可能出现具有高智能的工具,我们是否需要它给予主体地位,也就是权力能力。人工智能是否应该拥有主体地位不是智能化的程度问题,而是主体地位的性质问题——什么是权利能力——由谁赋予。该问题的探讨涉及的是法学的本质问题,要在法学范围内探讨,与科技的发展无关。进言之,尽管人工智能的发展状况具有不可预测性,不能作为判断人工智能主体化的标准,但是依据法的内在逻辑进行推理却能获得明确的答案,是解决该问题较为合理的路径选择。


法的逻辑推理即使是对可能出现的情况或问题进行预判,其立足点是且依然是既有的法律规定,而且这些规定都存在着内在的逻辑关系。人工智能是否能具有刑事责任主体资格要进行法律推理的主要因素有:法秩序的范围、人的主体地位、法律构建者与人工智能的基本关系等,这些前提在法律层面都有明确规定。通过逻辑推理,可以从法的性质角度准确评估人类与人工智能的关系,既包括现在的关系,也包括将来的关系,以关系定位为基础,人工智能是否或应不应该获得刑事责任主体身份的问题也就迎刃而解了。


2. 回归法律建构之主体意志:以“人”为核心的法秩序


人工智能以智能化程度为标准基本可以分为三个阶段,即弱于人类的人工智能、相当于人类智力的人工智能以及超越人类智力的人工智能。弱于人类智力的人工智能是当今人工智能的特点,否定它具有刑事责任主体资格是不存在争议的,但是对第二种与第三种情況下人工智能能否主体化有不同的观点。有学者认为考虑到人工智能在未来犯罪中发挥的作用,以及自主行为意识和能力的不断提高, 逐步确认智能主体的刑法地位是具有合理性的。


实际上,人工智能是否能主体化主要取决于两个方面:一是以人为核心的法秩序中人与人工智能的关系定位;二是刑法调整的必要性。一方面,以“人”为核心的法秩序框架其实否定了人工智能主体化的可能性。随着人工智能的智能程度持续提高,人工智能的智力水平在将来可能会等于或高于人类,有的学者认为这种情况下还将人工智能仅仅作为工具对待是不合适的,因此提出人工智能主体化的观点,但这种观点没有考虑问题探讨的基本范围——现有法秩序框架下,超出该范围问题的性质就会发生实质改变。申言之,一定要在现有的法秩序的框架下探讨刑事责任主体化资格问题,现有的立法包括刑事立法在内都是以“人”为核心构建的,这体现在两个方面:一是“人”是法秩序唯一的构建者,即现有的法是“人”的意志的表达,所有与法有关的事实、状态、行为以及参与者都会依据立法者的意志界定性质、明确地位。“人”在法秩序构建过程中的主导性排除了其他主体存在的可能性,包括人工智能。虽然在法律关系中国家以及各种组织也是法律关系的主体,但究其实质都是以“人”为基础,不同形式的“人”的组合体,而人工智能也不具有这一性质。因此,只有“人”是立法的主导者,具有主体地位,而人以外的其他行为体都不会获得主体地位。二是如果肯定人工智能的主体地位,那么现在以“人”为核心与逻辑起点的刑事立法会带来颠覆性的改变,我们就是在探讨未知的某种刑法典。现在以人为中心的法秩序,“人”不但是法秩序的唯一构建者,而且法也是为调整人类社会而产生的,所有法律制度确立的标准都是以“人”为基础的。无论人工智能的能力有多强,有多接近人,但毕竟不是人,不能与人相等同,现有法律直接将其作为“人”来调整在逻辑上是悖论;而且,现有法律体系中的概念、原则、规则等都是以“人”为基础制定的,如果承认人工智能拥有主体地位,其现有体系基本要全面修改,变化参考系,最起码要将人工智能作为参考系,那就会导致新的法秩序的形成,原有法秩序的瓦解。学者们对非人类构建的法秩序中相关法律问题的研究基本是以空想为基础,缺乏现实意义。


概言之,法是人的意志的表达,所以法是按照人的意志构建的。在人工智能与人的关系中,人的意志或意图已经决定了人工智能的地位——法律关系的客体。从性质而言,人工智能与其他工具一样,都是具有一定功能,能满足人类的某种需要,工具性是他们共同的特征,只是性能与重要性上的区分。人类制造人工智能的意图是明确的,就是掌控并利用它为人类服务。人工智能的发展也是以人类自身的发展提高为前提的,人工智能所获得的基本能力与所谓的自身的升级提高都是以人类的设计、制造为基础的,哪怕是出现了超出人类控制能力的人工智能,人类制造的出发点也是要掌控它,为自己所用。所以,人类利用人工智能,将其作为最有用的工具的意图是不会改变的。简而言之,在社会生活中,人类与人工智能的关系是制造者与被制造者,利用者与被利用者的关系,这与其他工具与人类的关系是相同的。人工智能无论其多么智能化,在人类社会中发挥着多么重要的作用,其本质是无法改变的——人类不断进化的工具。因此,人类从自身的利益出发,无论人工智能如何发展,最符合人类意志的关系是人与工具的关系,这是人类发明人工智能的本意。在现有的法秩序下人类是构建者,人工智能即使拥有较高的能力,包括思考能力,但是能否获得人格是需要法律的确认的,而法律是否确认人工智能的人格取决于法律构建者——人的意志。人作为法律秩序的构建者,为维护对自己有利的秩序与社会分工,必然也会排除人工智能获得主体地位的可能性。


三、刑事立法的包容与延展:对人工智能刑事责任主体化资格问题的再思考


有的学者预测人工智能将来在智力方面有可能超越人类,甚至能控制人类,所以从能力角度应该具有主体地位,乃至有学者认为“从人工智能的发展态势看问题,人工智能将来会具有像人那样甚或超过人的犯罪能力,故一旦承认人工智能的犯罪主体地位,则将出现人工智能统治人甚至消灭人的局面或悲剧,故人工智能的犯罪主体化不是‘能与不能的问题,而是‘应不应该的问题”。⑦ 从人工智能的发展趋势角度看,存在此种担忧是合理的,而从法律角度来看这一科技发展趋向予以观省则会得知,人与人工智能是否都应该具有主体地位关键不在于谁更聪明,而在于谁拥有了立法的主导权,而并非所谓的认知、思考能力。人类拥有按自己意愿构建法秩序的能力时,便拥有独一无二的主体地位;一旦丧失了这种能力,而被人工智能所取而代之时,不是要不要给人工智能法律主体地位,而是在新构建的法秩序中,人处于什么样的地位的问题——只是这种假设已经超出了我们探讨此问题的基本社会背景。人工智能是否能主体化要在现有法秩序的框架下探讨,而在现有的法秩序框架下,人类依然是法秩序的构建者、主导者,是按人类所拥有的物质生活条件及意图所形成的法体系。人工智能只是体现了社会生活某些方面的变化,使人类无论是出于主动也好被动也罢,从立法的应然性出发要作出的适当调整,但是人类作为主导者构建法秩序的实质是没有改变的。如果人工智能在智力方面已经超越人类,实际上探讨的范围或基础已经发生实质的改变,法秩序的构建者可能已经转变为人工智能,或者最起码人类不是唯一的主导者,不具有绝对的话语权,在此种情况下问题已经不是探讨人工智能是否可以犯罪主体化了,而是由谁来构建法秩序框架,人类在新的法秩序中已经转化为何种身份的问题。进一步说,刑事立法的容纳性否定了人工智能主体化的必要性。人工智能主体化之所以被提及是因为有些学者担忧在将来因为人工智能不具有主体资格而导致刑事责任的追究难以实现,这种观点一方面过于强调人工智能的特殊性,而在另一方面也低估了既有刑法体系的适应性,以人工智能对犯罪问题的影响,现有刑事立法可以完全容纳,合理解决。


在人工智能时代背景下的刑事立法的适用性与适应性表现在其包容与延展上。首先,从包容层面看,刑事立法责任主体的全面性有效解决了责任追究问题。人工智能的出现与发展引发了对立法与司法问题的思考是必然的,但也不能贸然对此作出一些过度反应。人工智能犯罪主体化争论的一个原因在于,有的学者担忧今后人工智能引发刑事犯罪的复杂性导致如果人工智能不能成为责任主体,可能带来刑事责任追究的困难,其实这种担忧在某种程度上讲是不必要的,刑事立法的体系设计所带来的容纳功能就能解决该问题。一是现有刑事法律关系的参与者在刑事立法中的规定是明确的、全面的。法律责任的实现要以法律所确认的法律关系参与者的合理设定为前提。目前刑事立法对制造者、使用者、销售者与设计者都规定了相应的责任认定标准,人工智能与这些主体的关系就性质而言与一般产品或工具与主体的关系的性质是相同的,只是性能的高低不同,原有的相关刑事责任模式可解决责任追究问题,人工智能涉及的法律关系的主体已全面覆盖,不会出现因主体缺乏而导致刑事责任难以追究的状况。二是从延展层面看,刑事立法关于犯罪对象及方式的规定可以解决人工智能作为工具而涉及的刑事法律问题。虽然新的技术的产生对刑事立法会产生影响,比如计算机技术不断影响犯罪圈的变化,甚至影响犯罪工具的界定,使刑法不断加入新的元素,人工智能作为特殊的工具,对犯罪的影响会导致犯罪方式的复杂化与多样化。但是,与人工智能相关的犯罪绝大多数都不涉及原有行为性质的改变,不需要产生新的罪名,少数因为行为方式的改变而可能会产生罪名的变化,但是这都不涉及人工智能法律地位的改变,责任的追究不是以人工智能犯罪主体化为前提实现的。与人工智能类似的这种情况其实在刑法适用过程中也是比较多的,比如出现新的网络犯罪虽然其犯罪的手段、地点与传统的犯罪不同,尤其是技术含量增高,但它依然适用已有的法律规定,主要是因为其基本性质界定没有改变,刑法体系内已有的责任架构能完全解决该问题。


以科技的发展为切入点探讨人工智能刑事责任主体化问题值得商榷。将法律界定建立在以想象为基础的科技发展状况上有违立法的基本原则,不以现有的法秩序的框架为前提的探讨超出了研究的合理范围。有些学者设想人工智能超越人类思维时人类必须主动应变,在法律层面通过在某种程度上承认或认可人工智能的主体地位以应对人工智能时代所带来的新变化,这种应变策略缺乏对刑事立法的包容与延展。在现有法秩序框架下,要重新审视以“人”的法律构建者的主导地位为基础界定人工智能与“人”的关系——这也许才是破解人工智能刑事责任主体资格问题争议的关键所在。


注釋:


① 刘宪权:《人工智能时代的刑事风险与刑法应对》,《法商研究》2018 年第1期。


② 马荣春、桑恬:《人工智能犯罪主体化否定论》,《山东警察学院学报》2021年第1期。


③④ 刘宪权:《人工智能时代的“内忧”“外患”与刑事责任》,《东方法学》2018年第1期。


⑤ 储陈城:《人工智能时代刑法的立场和功能》,《中国刑事法杂志》2018年第6期。


⑥ 皮勇:《人工智能刑事法治的基本问题》,《比较法研究》2018年第5期。


⑦ 转引自马荣春、桑恬:《人工智能犯罪主体化否定论》,《山东警察学院学报》2021年第1期。


作者简介:刘瑞瑞,上海政法学院警务学院教授,上海,201701。


    进入专题: 人工智能   责任主体  

本文责编:陈冬冬
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 刑法学
本文链接:https://www.aisixiang.com/data/130211.html
文章来源:本文转自江汉论坛 2021年11期 ,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统