王燕玲:人工智能时代的刑法问题与应对思路

选择字号:   本文共阅读 1071 次 更新时间:2019-02-12 02:29

进入专题: 人工智能  

王燕玲  

【摘要】 人工智能技术的迅猛发展以及人工智能时代的徐徐到来,正在深刻动摇传统刑法体系及其基础。智能主体的出现及其对“人”的刑法地位的冲击首当其冲,应当从智能主体的刑事责任能力与判断这一角度出发,审慎地研判智能主体的刑法地位及其权利保护问题。面对智能时代下的新型犯罪及其归责问题,应当区分利用智能主体作为犯罪工具、针对智能主体实施犯罪、智能主体独立实施犯罪等情形,充分利用现有刑法原理与刑法解释学等资源,激活传统罪名的扩张适用潜能,妥善解决刑事责任归属问题。社会形势更替与发展决定了刑法立法的变革及其必然性,应当高度重视适应人工智能的刑法立法完善课题,并根据实践需要,逐步通过增设新的罪名与新的刑罚措施等方式,来满足日益发展的新型社会需求。

【中文关键词】 人工智能;智能犯罪主体;刑事责任类型;立法前瞻


2017年被称为我国人工智能时代的“元年”,人工智能技术、应用以及政策扶持、理论研究等引起社会热切关注,传统法律体系转型的时代命题也应运而生。目前,刑法理论界对“人工智能+刑法”的命题已展开初步的讨论。例如,有观点认为,人工智能具有超人类的属性,人工智能技术存在重大的制度性风险,对人类社会与人的主体地位形成威胁。在人工智能时代,智能机器人的出现,会逐渐侵蚀传统刑法体系中“人”的主体性,有关刑法的存在基础、功能意义、任务与功能等内容,都可能受到深刻的影响,人工智能社会与智能时代的刑法可能随之出现。[1]也有观点认为,在人工智能时代,随着智能机器人的出现,传统的刑事责任理论陷入被动,追究智能机器人的刑事责任是一个新的技术与理论难题。[2]应该说,这些初步的探索具有一定的前瞻性与现实意义,既突出强调了智能时代对“人的主体性地位”的影响以及由此对传统刑法的多重作用,也暗含了传统刑法理论体系等需要积极响应并作出调整(譬如解决刑事责任问题)的意义。

当前,鉴于人工智能技术时代带来的重大影响,关于人工智能时代的刑法命运问题的研究,迫切需要聚焦以下几个方面。一是人工智能技术背景下的智能主体(智能机器人、智能产品等)的刑法地位,主要涉及其是否具有刑事责任能力、是否属于当代刑法意义上的一种新的犯罪主体,以及由此对“人”作为犯罪主体的传统格局的影响。这一问题具有基础性和全局性,左右后续问题的解决。二是在人工智能技术的广泛应用背景下,智能产品等智能时代的“主体”是否需要承担刑事责任以及如何对其追究刑事责任,进而要求传统刑事归责理论作出合理的改变。三是人工智能时代下的新型犯罪有别于传统犯罪,对其施加的刑事制裁也应作出调整,传统的刑罚措施与刑罚体系迎来裂变。四是积极推动当代刑法理论体系与人工智能时代的呼应。这不仅是刑法理论研究的新增长点,也是当代刑法立法的重要内容。


一、人工智能时代的犯罪主体蜕变


在人工智能时代,智能主体的智能化程度不断升高,其最终结果是与“人”可以媲美甚至超越人的智能,这就直接从根本上冲击“人”作为犯罪主体的刑法地位,也引发了智能主体是否可以成为犯罪主体及其客观的影响等一系列问题。

(一)智能犯罪主体的地位

目前,鉴于人工智能技术的本质就是基于“算法”而形成的高度智能化属性,由此确立的智能主体,在不断接近人类的智能之际,其主体性问题也必然出现。它是指智能主体是否与人无差异、是否可以作为一种犯罪主体而存在的问题。

目前,关于新兴智能主体可能的未来刑法地位,主要观点如下。其一,电子人。该观点认为,人工智能的主要特征是智能化,在智能程度不断升高后,智能主体逐步具有自主性、主动性,不再是完全受人支配的行为客体、制造产品等,法律应设定为“电子人”。[3]其二,有限的法律拟制主体。该观点认为,从刑法的角度看,智能机器人及更广义的人工智能主体并不具备法律的主体资格与地位。相比之下,赋予智能机器人具有民事领域的主体地位,并不存在法律技术障碍。在现有条件下,关于智能机器人是否具有法律人格的讨论,当前需要结合现行有效的法律规定,根据解释论的基础和限度,在坚持人工智能为客体的原则下,运用拟制的法律技术,将特定情形下的人工智能认定为法律主体。[4]其三,分阶段的法律主体类型。该观点认为,从法理的角度看,自主意识和独立的意思表示是法律主体应当具备的必要条件,财产是主体承担法律责任的物质基础,并为赋予法律主体资格提供了可行性。初期的人工智能仍属于“行为”工具的范畴,自主智能机器人的“自主意识”和“表意能力”以及“人性化”是赋予智能机器人取得法律人格的必要条件。在智能时代的后期,人工智能作为工具论以及作为法律拟制的主体等,将渐次成为智能机器人的法律人格形式。[5]其四,有限的法律主体人格。该观点认为,人工智能具有独立自主的行为能力,有资格享有法律权利并履行义务和承担责任,人工智能应当具有法律人格。不过,由于人工智能承担行为能力的后果有限,人工智能适用特殊的法律规范与侵权责任体系安排,其具有的法律人格是有限的法律人格,域外对此已有立法上的尝试。[6]

总体上看,关于正在形成的人工智能主体是否应当具有法律主体资格,上述四种看法总体上均持肯定的立场,并以限制的法律主体为主要立场,同时,也侧重根据人工智能技术的发展阶段对人工智能主体的法律地位进行动态判断和划分。

应该说,以上四种观点,各有其可取之处。它们的共同之处在于,基于技术发展与现实需要的情况,理性地、有限制地明确肯定人工智能主体应当具备法律主体的资格,进而认为其也可以作为刑法意义上的犯罪主体。同时,上述观点的主张者认为,在目前的智能技术以及应用背景下,赋予人工智能体完全与人一样的法律主体资格,在技术上不够现实,在实践中也难以把控。基于这些考虑,他们提出根据人工智能技术的发展阶段,确立不同类型的人工智能体及其法律资格、行为能力等的做法,是贴合实际的。

然而,上述观点中存在的共同问题在于以下几方面。其一,只肯定应然层面的必要性是不够的。在讨论人工智能体的法律资格与地位的问题上,不能仅仅根据人工智能技术的发展趋势,进而基于智能技术及其应用过程中所呈现出的“智能现象”,主张在应然层面上要确认智能主体的法律地位。这是过于简化的讨论,因为智能技术与刑法的对接并非直接相通的关系,而是复杂的逻辑转换问题。只有实定法明确了科学合理的对接原则、规则以及标准后,才能在实然层面讨论这些问题。否则,更多的是空谈,无法在刑法层面解决可操作性等问题。其二,要区分智能主体在一般意义与刑法语境中的差异。从智能主体的行为环境看,一般意义上的智能主体,和刑法意义上的智能主体,是存在差异的。这主要是因为刑法评价智能主体的行为及其责任等问题时,是立足于规范层面,遵循法定原则,并且对象是人及其实施的行为。因此,不能将一般意义上的智能主体及其法律主体资格问题,直接用于刑法意义之上,而应结合实际情况进行分析和判断。其三,要准确把握刑法意义上的智能主体所应具备的基本条件。作为刑法意义上的智能主体,它必须满足刑法所规定的条件和要素。在传统刑法理治中,犯罪主体的关键要素是刑事责任能力,并主要通过人的心理因素与生理因素来进行双重判断。对于智能主体而言,尽管其与传统的人作为犯罪主体是有差异的,但是在人工智能的初期阶段,从法理上仍可以参照适用。

基于此,可以看出的是,在讨论智能主体是否具备刑法中的主体资格问题时,仍需要回归到规范刑法学层面,尝试探讨智能主体的刑事责任能力等规范要素。尽管其可能不是最好的办法,但它目前是适当的权宜之计。

(二)智能主体的刑事责任能力

按照传统刑法理论,犯罪主体以具备刑事责任能力为前提,犯罪主体通常是自然人,但也包括法律拟制的法人。对于智能主体而言,对其特定层面上的刑事责任能力的考察,也不妨成为判断智能主体地位的一个重要突破口。

我国刑法理论研究者较早地意识到刑事责任能力对判断智能主体的地位的重要作用,并形成了以下判断的方法。其一,以人工智能产品的智能强弱度作为评价系数。人工智能技术是基于“算法”而推进的,其目标是与“人的智能”高度接近或者完全超越“人的智能”。因而,不同人工智能技术或阶段,所确立的智能水平或程度是不同的。由此,可以根据智能程度,对智能主体进行划分。易言之,人工智能技术是不断发展的,从其应用的角度看,不同类型的人工智能体,主要差异在于智能程度的繁简。例如,有观点认为,人工智能产品作为目前高度智能化的现实载体,可以根据其是否具有辨认能力和控制能力,将其区分为弱人工智能产品与强人工智能产品。前者在设计和编制的程序范围内,可以独立判断,可以自主作出决策,但归根结底,仍然是设计者或使用者的意志,缺乏刑法意义上的辨认能力和控制能力。后者在设计和编制的程序范围内,可以独立判断,可以自主作出决策,实现设计者或使用者的意志,也可以超出设计和编制的程序设定的范围,进行自主决策,基于自身的独立意志实施相应行为,因而整体上都具有辨认能力和控制能力。[7]其二,刑事责任年龄的“功能类比”路径。不同的智能产品,其智能化的程度也不同,由此,智能化程度是最基本的技术差异特征,它的作用类似于判断刑事责任能力及其程度的刑事责任年龄。从技术本身以及判断系统的可行性而言,需要一套符合实际且便于操作的智能评判标准,评价主体可以是研发者及行业技术人员,目的是为了对智能产品的智能化程度采取技术认定,通过类比来判断人工智能产品的智能化程度与刑事责任年龄的匹配性。人工智能产品的智能水平很低,则类似于完全无刑事责任状态,也就是普通机器。人工智能产品的智能水平较高,则类似于相对有刑事责任状态。智能水平很高,则类似于完全有刑事责任阶段。[8]其三,域外立法的正面参考。俄罗斯的“格里申法案”主张,虽然机器人与现实的动物相似,是特定相似性的财产,但根据机器人的发展趋势,它也可能成为人类的自主代理人。关于机器人的地位及其规制问题,应当兼顾传统法律对动物和法人的调整思路。机器人具有特殊的法律构造,可以类推适用统一国家法人登记簿,并创设机器人登记簿。[9]“格里申法案”对机器人的定义具有一定的过渡性,同时,“格里申法案”中的机器人作为法律调整的对象要素,具有高度的智能性和自主性,与欧洲议会制定的《机器人民法规范》(2017年)所使用的“智能自主机器人”的通用定义很接近,具备通过数据获取的自主能力、物理支持形式和调整自身行为以适应环境的能力等。[10]

以上三种不同的看法,所立足的角度各有其合理性。应当肯定的是,从智能程度的角度进行分析是最直接和有效的方式。从技术的评价角度看,可以将人工智能技术的应用发展分为弱人工智能、强人工智能和超人工智能三个阶段,目前应当还处于弱人工智能阶段。通过这种方式还可以更客观地判断智能主体是否具有刑事责任能力及其程度。基于这种考虑,从传统刑事责任能力的判断路径出发,以“刑事责任年龄”进行类比分析,也是一条可行的探索路径。同时,从域外法的立场出发,既然有国家和地区启动立法,并对智能主体的法律资格和地位作出明确规定,则意味着从法理上可以拟制智能主体的法律资格,进而也可以在刑法层面拟制智能主体的刑事责任能力及其程度、类型等。

笔者认为,在人工智能技术深入发展的背景下,对于发展状态中的不同智能主体,其是否具有刑事责任能力的问题,应当从更广阔的多角度进行综合的分析和判断。其一,在人工智能的初期阶段,运用传统刑法原理进行分析有其合理性与可行性。尽管从长远看,人工智能时代与传统社会是渐行渐远的关系,以传统社会为基础的当代刑法体系,并不直接适用于智能时代的犯罪问题,但是,考虑到当前仍处于人工智能时代的初期阶段,而且这场变革耗时漫长,可以肯定的是,当代刑法在很长时期都是有效的,可以发挥非常重要的作用。易言之,当代刑法原理仍然是认识智能时代和解决智能犯罪问题的重要工具。有鉴于此,在解决智能主体是否具有相应的法律资格等问题上,也不宜断然抛弃当代刑法体系,讨论刑事责任能力问题是必要且可行的,有助于分析智能主体的刑法地位问题。其二,人工智能技术及其所达到的智能程度是最基础的技术标准与依据。应当明确的是,目前的智能主体仍以人类社会为存在基础,但智能主体已经横跨于智能时代,未来可能专属于智能时代。因此,智能主体的首要特征是“技术”问题,其次是与之高度关联的智能程度问题。在考察智能主体的法律资格及其行为能力时,也需要立足于智能技术这一首要因素,围绕智能程度这一关键问题,展开相应的讨论,否则有可能偏离问题的实质。其三,弱人工智能产品与强人工智能产品的区分有一定的视野狭隘性。目前,在刑法理论上,区分弱与强人工智能产品的观点是被较早明确提出的,同时,其也提供了一种类型化的思考方向,为当前如何分析智能主体、智能犯罪的责任等问题,提供了有益的视角。然而,这种看法具有一定的“先入为主”的缺陷。从智能主体的发展趋势看,智能主体并不是简单的“产品”,如此分类严重降低了智能主体的“独立性”,也从语言逻辑上默认了智能主体从属于人类社会,并且,从智能技术层面看,强与弱的技术判断并非易事,两者的界限也不是泾渭分明的,故这种类型化思考未必贴近实际情况。更重要的是,根据智能程序来区分强与弱,其实质仍然是对智能程度的一种判断,强与弱的划分是比较简化的思考方式。其四,要在“技术+刑法”的原则下对智能主体的刑事责任能力问题进行综合性、比较性分析。在考察智能主体的刑事责任能力问题时,应当坚持“技术+刑法”的综合性原则,对智能主体的智能程度及其类型进行理性分析,从而建立起层次分明的智能主体格局,同时,也可以适当参考域外的立法及相关做法,但应当立足于我国智能技术的发展及其应用情况。

(三)智能主体的刑法地位及其影响

在人类社会中,人是最重要的存在基础,也是占据主导地位的行动主体。从近现代刑法的发展史看,保障人权作为其核心命题,正是围绕加害人与被害人以及受之影响的国家、社会而展开的。然而,在智能时代,智能主体的出现,不仅打破这种长期以来的制度平衡关系,而且对传统刑法的发展与走向产生了深刻的影响。

1.实施犯罪与承担刑事责任的能力

从逻辑上看,自然人具有刑事责任能力是其作为犯罪主体的基本前提,相应地,智能机器人是否具有刑事责任能力,是其成为刑事责任主体的关键前提。[11]目前,智能机器人可以通过深度学习,逐步确认自主意识和自我意志,从而,智能机器人可以超出研发者与设计者所设计和编制的程序范围,独立实施危害行为。独立的辨认能力和控制能力是其基础。智能机器人具备独立的辨认能力和控制能力,则意味着具有和“人”一样的刑事责任能力。智能机器人可以是独立的刑事责任主体,实施了严重危害社会的犯罪行为,应当承担刑事责任。[12]

换言之,在智能技术的“算法”逻辑中,智能主体是完全具备独立性与自主性,但其前提是不脱离智能技术所处的社会环境和基础。同时,不能直接套用人类社会的“固见”进行“同质化”思考,而需要切换社会背景与话语体系,肯定人工智能社会的独立性,进而肯定智能主体的独立性。当然,智能主体毕竟不是“人类”,也不可能真正做到完全等同的思考与判断,但在实施犯罪和承担刑事责任的能力问题上可以进行“等价”判断。同时,这套判断体系是独立的,其基本的组成要素、判断规则以及标准等,都需要立足于智能技术的特征、智能时代的背景以及智能社会形态的规律。对于传统刑事责任能力判断所依赖的生理标准与心理标准是否可行与如何调整等,都是今后需要考虑的重要技术问题。

2.机器人权利及其刑法保护

人工智能技术的发展以及智能主体的推陈出新,迅速强化了智能主体的地位,相应地,机器人是否拥有权利及其权利地位等问题相继涌现。当然,机器人的权利,不同于人类的“自然权利”,相比之下,智能主体的权利具有法律的拟制性、利他性、功能性等特殊性。目前,从智能技术及其应用等因素看,机器人的权利主要有数据共享权、个体数据专有权、基于功能约束的自由权、获得法律救济权等。从法理上看,确立机器人的权利,对传统法律体系与权利体系都有影响。从立法技术看,应明确机器人权利的边界及法律保留事项、加强法律与机器人伦理规范的衔接、建立机器人监管机制。从技术发展的趋势看,伴随智能主体的智能程度及其地位的提升,必然出现智能主体的权利问题。

智能机器人不仅可以作为未来的潜在犯罪主体,而且,作为人工智能社会的行为主体,智能机器人也同样具有相应的法律权利。尽管权利的内涵与形式存在很大的差异,但不妨碍智能主体的地位与基本权利应受到保护。作为拥有法律赋予的基本权利的智能主体,对智能主体进行保护既是必要的,也是对其法律主体地位的一种维护。


二、人工智能时代的刑事责任与基本思路


在人工智能时代,犯罪主体身份的变动,也直接牵涉到其他犯罪构成要件要素的整体变化。这不可避免地影响刑事归责问题。对此,需要站在一个更契合人工智能时代的语境下展开更理性的讨论,通过刑事归责来遏制刑事风险问题。

(一)利用智能主体实施犯罪

人工智能技术是现代互联网信息技术的下一个端口,从其刑事风险的类型看,利用人工智能技术本身及其应用实施犯罪以及最具智能性的智能主体实施犯罪,是最常见的类型,其本质是技术滥用作为一种犯罪工具,滥用主体应当承担刑事责任。

1.行为定性的路径

在人工智能时代的发展初期阶段,智能程度偏低的人工智能产品等作为犯罪工具,被利用于实施严重危害社会的犯罪行为,可能涉及危害国家安全、国防利益、公共安全、社会管理秩序、经济秩序以及侵犯公民人身和财产等方面。同时,从刑法角度看,行为人故意利用人工智能实施犯罪行为的刑事责任分析,都是在人工智能及其应用对于行为人而言只是一种“智能工具”的情况下进行的。

对此,目前形成了以下不同的看法。其一,非犯罪工具化。不断智能化的人工智能主体,具有深度学习、持续学习以及决策和行动等能力。智能机器人自主行动的,则可能造成对人类权利的损害。不过,人工智能所有者、生产者或程序开发者,不应当作为“替罪羊”,否则,对司法公正与技术创新都百害而无一利。[13]其二,犯罪工具化。在人类设计和编制的程序范围内,智能机器人实施的行为,主要体现了人类的意志。智能机器人实施严重危害社会的犯罪行为,本质是为了实现研发者或者使用者的犯罪意志,应当将该智能机器人看作研发者的“工具”,智能机器人本身不应当承担刑事责任,智能机器人的研发者或者使用者才是真正的责任主体。如果研发者和使用者是不同的自然人或单位,则可以成立共同犯罪,但研发者或者使用者与智能机器人目前不能成立共同犯罪。[14]

以上的两种思考,可以说是相互对立的,其分歧源自于对智能主体的“主体地位”有不同的认识,从而也导致对是否存在利用智能主体实施犯罪的客观情况有不同看法。目前,智能机器人通常不具有真正的独立性,因而,其所实施的犯罪行为,往往是根据人类设计和编制的程序范围而作出的。从犯罪本质看,这其实是人类的意志之体现,即使发生了严重危害社会的犯罪行为,智能机器人也只是一种“智能工具”,自身不需要承担刑事责任,但利用的主体则不能例外。

2.新型网络罪名的解释张力

从刑法原理的角度看,对利用人工智能主体等实施犯罪的情形,进行前瞻性的定性讨论,具有积极的意义。然而,受制于理论、立法等滞后的因素,对其进行相对独立的定性分析可能效果不佳,对此,不妨从刑法解释学的角度出发,尝试对现有的关于网络犯罪的规定与人工智能时代需要刑法作回应和调整的相关行为及其社会关系进行比对性分析和解释,取得包容性和一致性以后,可以按照我国现行刑法的规定对后者予以定罪量刑。

《刑法修正案(九)》增加了我国《刑法》第286条之一、第287条之一、第287条之二。这是三个纯正的网络犯罪罪名,对网络社会进行不同层次的保护。对于利用人工智能主体实施犯罪的,从犯罪本质以及犯罪的类型化特征看,与网络“工具型”犯罪具有高度的相似性,因此,上述三个罪名的刑法解释意义在于以下几点。其一,《刑法修正案(九)》增设了我国《刑法》第286条之一,规定了拒不履行信息网络安全管理义务罪,这是典型的网络不作为犯罪,将违背法定作为义务的网络危害行为予以犯罪化。[15]对于智能主体的研发者与设计者而言,明知负有相应的研发与设计义务,即遵循“算法”逻辑而科学、理性以及安全进行研发与设计的义务,而且具备履行这些法定义务的“技术能力”,在有关部门通知其应当及时纠正和修改的情况下,拒不履行法定的义务,而且造成严重后果的,是一种典型的不作为犯罪,也危及智能主体安全,可以按照我国《刑法》第286条之一的规定予以处罚。其二,非法利用信息网络罪。在互联网犯罪时代,利用网络实施犯罪是最常见的形态,也是危害最广泛的类型。对此,《刑法修正案(九)》增加了我国《刑法》第287条之一,规定了非法利用信息网络罪。该罪将非法利用信息网络的预备行为予以实行行为化,[16]对积极打击“网络手段型”犯罪及其前端的黑色产业链都有积极的作用。对于利用人工智能主体实施犯罪的,目前,在立法供给显然跟不上的情况下,可以在必要时援引我国《刑法》第287条之一,对一些明显属于高度危险的利用智能主体的预备行为的,情节严重的,予以定罪处罚。其三,我国《刑法》第287条之二规定的帮助信息网络犯罪活动罪被认为是“共犯的正犯化”立法,将一些危害程度已经超过正犯的行为予以独立处罚,从而避免“共犯从属性”理论所带来的定罪障碍。[17]对于实施危害智能主体的犯罪,在实践中,往往也需要相应的技术支持与帮助。对于在明知的情况下,仍然提供相应的技术支持与帮助的,如侵入和破坏智能程序的工具等,情节严重的,属于需要独立处罚的技术帮助行为,应启用“共犯的正犯化”的立法思维,通过援引我国《刑法》第287条之一的规定,结合具体情况,对这类犯罪进行有效的打击。

(二)针对智能主体实施犯罪

从类比的角度看,当前不断趋于严峻的网络犯罪,在本质上与人工智能时代的犯罪具有“相当性”。换言之,智能主体可以是被害的对象,继而也可能是需要保护的对象,因为这关系到智能时代的安全与有序,不过,如何对其加以保护需进一步讨论。

1.研发者与使用者作为责任主体与预见义务的判断

对于人工智能初期阶段,智能主体的研发者与设计者处于非常重要的地位,负有监管的义务。根据我国《刑法》的规定,监督过失犯罪的责任主体并不包含人工智能产品的研发者和使用者,也不包含人工智能产品本身,因此,对这类研发者和使用者而言,不能追究监督过失的刑事责任。这可能是现行刑法应对人工智能刑事风险的制度缺陷。[18]然而,从学理上看,研发者与设计者对于智能主体而言,具有不可替代的地位和作用,甚至目前处于“独占”状态,应当是首要的“伦理责任者”与安全的“守护者”,也是智能主体所面临的刑事风险的首要来源。

在人工智能技术处于不断发展的情况下,判断人工智能的研发者和使用者是否对危害结果负有预见义务,需要考虑人工智能研发或使用的当时的人工智能技术发展水平。进一步讲,在判断研发者或使用者的预见能力问题时,人工智能技术的发展情况与水平是首要考虑因素。总体上看,基于人工智能技术的发展情况,要么是可以避免危害结果的发生,要么是无法避免危害结果的发生。对此,存在以下观点。其一,负有预见危害结果发生的义务,可以避免危害结果的发生,因未预见而导致危害结果的发生,研发者或使用者成立一般过失犯罪,需要承担相关刑事责任。其二,不负有预见义务,无法避免危害结果的发生,不构成一般过失犯罪。至于是否可以成立监督过失犯罪,则先需要判断研发者或使用者是否具有监督义务,只是目前的法律并未作出相应的规定。[19]这种看法有其合理性。从人工智能技术的开发与应用看,设计者和研发者处于最前端,也是技术风险的掌控者,同时负有一定的事前安全管理义务,因此,从逻辑上看,有承担刑事责任的必要性和可能性。不过,对其追究监督过失的刑事责任,是非常严苛的责任模式。例如,智能机器人的研发者与设计者往往不是个人而是一个团队,这就涉及共同犯罪与单位犯罪问题。对于无法直接查明具体责任人员的,一旦作为犯罪处理,实际上是将共同过失犯罪以共同犯罪论处,这就需要改变刑法理论与立法。[20]同时,追究研发者与设计者的监督过失责任,是以负有相应的监督义务,如风险防范与控制、监督、制止等不同的义务为前提的,这需要通过立法的方式予以明确。因而,在人工智能技术的初始阶段,考虑到技术的中立性,仍需慎重进行,更应当明确入罪的标准。

2.传统计算机犯罪罪名的解释能力

在现行我国刑法尚未对人工智能作出具体规定的条件下,对于针对智能主体实施的犯罪问题,在定性上,也可以援引网络“对象型”犯罪规定,从而缓解“无法可依”的窘境。

根据我国《刑法》第285条第1款的规定,非法侵入计算机信息系统罪的犯罪对象是仅限制于“国家事务、国防建设、尖端科学技术领域的计算机信息系统”,显然,这无法与智能主体所依赖的智能程序、算法等内容相匹配,因而,缺乏解释的前提和基础,然而,其他的计算机犯罪罪名仍具有一定的解释意义。首先,是非法获取计算机信息系统数据罪。对于非法获取人工智能技术或智能产品的应用程序等行为,如果严重危害了智能主体的安全以及智能技术、智能时代的安全的,刑法有必要予以介入。从定罪的角度看,可以考虑依照我国《刑法》第285条第2款,以非法获取计算机信息系统数据罪论处。这是因为智能主体所依赖的技术或程序等,因其高度依附于具有主体资格与地位的智能主体,不宜视为一种财产,从扩张解释的角度看,它更接近是一种智能数据。[21]基于此,目前阶段可以援引第285条第2款,用于对这类犯罪进行定罪时的应急之用。其次,是提供侵入、非法控制计算机信息系统程序、工具罪。智能主体具有高度的智能性,而且研发与设计的过程都是高技术含量,也配有非常有严密的安全保障措施等,因此,实施危害智能主体的行为,也往往需要相应的“技术优势”作为支撑,客观上也就形成了一条黑色的犯罪利益链条。对于实施危害智能主体的犯罪行为的,如果有提供侵入或非法控制等违法程序、技术或者工具等的,是一种独立的帮助他人实施犯罪的危害行为。在对这类犯罪进行定性时,可以依照我国《刑法》第285条第3款的规定,[22]更好地打击黑色产业链条,同时,也间接提高实施危害智能主体安全的犯罪行为的成本,继而发挥积极预防的效果。最后,是破坏计算机信息系统罪。从智能技术的初期应用阶段的实际情况看,智能主体仍具有较为明显的“人造属性”,在技术层面上仍未摆脱其“行为客体”的属性。相应地,智能主体运行或行动所依赖的程序等,可以视为与计算机信息系统相类似的概念。因而,实施针对智能主体及其程序等的危害行为的,严重危害智能主体的正常运行,情节严重的,可以依照我国《刑法》第286条的规定进行论处。

(三)智能主体独立实施犯罪

从人工智能技术发展的角度看,针对人工智能所设计和编制的程序,对于日益智能化的智能机器人而言,其控制能力将明显下降。这也就意味着人类作为研发者与设计者,对智能主体的控制力也会不断降低。相应地,真正意义上的智能机器人在不久的将来可能出现,其将完全具有独立的辨认能力与控制能力,完全可能按照自主意识和意志实施严重危害社会的犯罪行为,应当成为刑事责任的主体。由此可见,对智能机器人追究刑事责任,其关键前提是智能机器人可以作为刑法意义上的独立犯罪主体。对此,有观点认为,意志自由存在与否对于刑事责任能力的认定有重要的意义,智能机器人在设计和编制的程序范围外实施行为,实现的是其自己而非研发者与设计者等外部人员的意志,相应地,智能机器人的行为完全可能认为是法律意义上的行为,今后刑法可以考虑在必要的时候,赋予智能机器人刑事责任主体的地位。[23]应该说,这是智能主体地位的发展趋势,但问题在于,即使明确了智能主体的独立地位,对其所实施的独立犯罪,在立法无法跟上的情形下,对其进行“定性分析”与“有效处罚”几乎都不可能。同时,从法理上看,即使肯定了智能主体的犯罪主体地位,仍需要解决的问题是智能主体自主实施的独立行为,是否属于刑法意义上的“危害行为”。对此,有观点认为,智能机器人在设计和编制的程序范围外的行为,与传统的“行为”相比,仅在人的生理因素上有差异,在实质内容上并无差异,因此,在设计和编制的程序范围外实施的行为,可以视为是智能机器人独立实施的新的刑法意义上的“行为”。[24]应该说,在设计和编制的程序范围外实施行为时,如果智能机器人的行为实现的是自主意志而非他人意志,可以视为刑事责任主体。这是在人工智能的初期阶段,基于智能程度的强与弱之差异,并特别对高强度的智能主体所作的一种身份预判,所得出结论也是合情合理的。同时,根据设计与编制的程序范围作为主要的衡量标准,来判断智能主体是否具有独立的意志自由以及是否属于独立的主体,虽有一定的可操作性,但也有较为明显的认识狭隘性,既无形中默认了智能主体依附于人这一制造者的客体特质,也限制了智能主体不断趋于独立的潜能。尽管如此,通过上述方式对智能主体独立实施犯罪和承担刑事责任问题的“论证”,仍可以为这类问题的司法应对提供有益的方向。当然,更重要的问题在于,在人工智能时代,传统犯罪主体理论等问题可能会迎来一个很大幅度的动荡。[25]如何妥善地处置该问题,直接关系到智能主体的刑法命运。


三、人工智能时代的刑事立法课题及其展开


无论是刑法原理的拓展,还是刑法解释学的展开,在回应人工智能时代的挑战时都显得“力不从心”,因为立法完善的积极功能尚未被释放,也就无法从规范本体的层面化解“规范供给不足”的难题。关于网络犯罪的刑罚应对就是力证。对于人工智能时代的刑事风险,刑法立法应作出前瞻性的有组织反应,从而提高当代刑法的时代性与治理犯罪的效果。

(一)刑法立法应对路径的现实必要性

在任何社会形态中,刑法通过立法实现自我完善与功能转型,不仅是立法所具有的“变革”能力的客观体现,也是社会历史经济发展所“倒逼”的结果。对于人工智能时代的犯罪问题,刑事立法完善仍然是应有的选择。

1.人工智能时代倒逼立法变革

在大变革时代,理论界应当确立的一般共识是,人工智能技术的发展,客观上迫使传统刑事立法作出改变,因应智能时代的新型、专属立法是必然趋势。首先,人工智能技术的迅猛发展及其广泛应用,已经在很大程度上对传统法律制度、伦理道德观念等产生了重大影响,社会变革要求法律转型。人工智能技术的快速迭代与法律发展及其监管的滞后现象之间的不适性会进一步加剧。可以肯定的是,在人工智能时代,法律的“无人区”问题会逐渐显现,简单地说,就是很多人工智能引发的法律问题,传统法律制度无法有效解决。在这种剧烈变革的背景下,加快人工智能领域的专业立法与制定符合国情需要的法律法规是当务之急。其次,人工智能技术的发展及其广泛运用,对法律本质、法律功能、法律规则、法律的价值导向等问题,都有不同程度的受到影响,这要求刑事立法转型。在此背景下,立法作为反映法律制度的基本载体与规范表现形式,也必然受到影响。易言之,任何立法都是社会变化发展的产物。对于刑事立法而言,也是如此。通过立法对人工智能的刑事风险进行回应是其使命所在,并且不能落后于现实社会对刑事立法的迫切需求。

2.应对人工智能的刑法立法方向

不同的社会形态,要求与之相适应的立法活动。例如,面对传统的犯罪问题与正在迅猛发展的网络犯罪问题,刑事立法的立场及其内容是有差异的,[26]否则便违背了科学立法的基本精神。这对于人工智能时代的刑事立法而言也是如此。

关于当前如何把握人工智能时代的立法方向,笔者认为,需要关注以下几个方面。第一,立法的前瞻性。维护社会规范的稳定期望是法律制度的核心功能,但是,人工智能技术的兴起与发展,隐藏无限的不确定性,导致传统法律功能的独特性逐步丧失。基于“算法”的机器学习成为新的知识与智能的形成方式,法律的学习与发展、法律规范的形式、法律规范的稳定性等,都受到了人工智能技术的约束,这是传统法律逐渐走向“死亡”的前兆。随着全面的人工智能时代即将到来,刑法作为“回顾性法律”,也需要对未来可能产生的风险进行预先性的展望。注重人工智能犯罪立法的前瞻性,人工智能犯罪立法应做到前瞻性与刑法安定性的统一,区分刑事立法的前瞻性与过度刑法化。构建人工智能犯罪相关规范体系,包括人工智能犯罪的主体制度、人工智能犯罪的行为模式、人工智能犯罪的刑事责任。[27]第二,试验性的专门立法。目前,人工智能技术及其应用虽然发展很快,但仍处于初期阶段,围绕人工智能时代展开的立法相对有限。对于自动驾驶等智能技术发展已经相对成熟、产品亟待进入市场的应用领域,立法需求是旺盛的,可以尝试进行地方性或试验性的立法。这种立法模式可以较好地兼顾个别需要与整体立法的关系,可以就一些特定问题进行立法,解决现实需要,同时也避免了整体立法条件不成熟下的“立法赶制”。第三,局部调整是当前的主流方向。由于人工智能技术的复杂性等因素,人工智能时代可能出现诸多新的法律风险,传统刑法在面对这些问题时,会在不同领域出现一些空白地带。从立法应对的幅度和范围看,完整意义上的“机器人刑法”作为更具颠覆性的做法,与“传统刑法修正”的渐进性改革方案,是相互对立和依存的。前者的变革是剧烈的,同时也是彻底的,后者的变革是逐步的,同时也是有局限性的。不同的道路选择会有不同的结果。例如,对智能犯罪时代的过失犯罪等问题的处理是不同的。[28]从更稳妥的立场看,局部调整在很长一段时间是主要的选择,而且,局部性的调整可以通过积累的方式,为今后的整体调整奠定基础资源和准备条件。这更现实的理由在于,人工智能技术仍处在早期阶段,人工智能应用的智能化程度相对不足,人工智能背景下的新型智能犯罪不具有真正的独立性。

(二)人工智能犯罪时代的罪名增设

关于人工智能时代的刑法立法活动,合理增设新的罪名是回应司法需求的当务之急。只是在罪名增设的问题上,要防止“见招拆招”的被动性,提高立法的科学性与体系性,循序渐进地根据实际需要并立足长远增设新型罪名。

关于罪名增设的问题,有观点认为,宜考虑增设以下罪名。其一,滥用人工智能罪。在人工智能时代,滥用人工智能行为,是对人类社会的安全这一核心利益的破坏,应当特别加以规制。从社会危害性的程度看,滥用人工智能的危害,可能要高于传统犯罪行为。对于在自主意识和意志的支配下实施行为的,智能机器人应当承担刑事责任。其二,人工智能事故罪。对于人工智能产品或智能机器人所引发的重大社会危害,在大多数情况下,研发者和使用者作为“负责主体”,对潜在的风险具有一定的事前控制能力。由此,人工智能产品研发者和使用者承担严格责任是符合法理的。严格责任是以负有特殊义务为前提的,目前主要以违反人类社会中的法律以及道德等规范和价值、数据保护义务、自主武器系统的有效控制等为主要情形。同时,滥用人工智能罪与人工智能产品事故罪的增设,其实都指向研发者和使用者,前者是从故意犯罪的角度出发,而后者是从过失犯罪方面出发,构成一个完整的罪名结构体系。[29]

对于滥用人工智能罪、人工智能事故罪的探讨,应该说,都比较客观地回应了理论上的一些前沿思考以及现实情况。在人工智能时代,滥用智能技术可能是较为常见的,但智能技术的使用主体不负责任的行为也多有发生。对于这两类行为,情节严重的,予以刑事处罚有其必要性。同时,考虑到现有规定的不相称性,另行增设新的罪名有其积极意义。只是从行为特征等因素看,滥用智能技术与智能技术事故的区分仍具有较强的传统立法思维的局限性,在人工智能犯罪时代是否继续可行值得研究。并且,增设过失型的智能犯罪,是否有些激进也值得商榷。

罪名增设的实质是犯罪化,犯罪化的立法进程必须坚持适度必要的原则,要充分释放新增加罪名的规制范围和能力,提高立法体系与功能之间的协调性。

当前,结合有关罪名增设的讨论,考虑到人工智能时代的演变及其刑事风险的发展规律,在采取必要的犯罪化策略时,应注意以下几个问题。其一,犯罪类型的分析。应该说,人工智能的刑事风险类型,是确定罪名增设的基本逻辑所在。目前来看,人工智能的刑事风险,大体可以分为三类。一是利用人工智能技术或智能机器人实施犯罪,是一种非法利用行为。二是针对人工智能技术或智能机器人实施犯罪,是一种针对智能时代的安全价值的破坏行为。三是智能机器人作为完全独立的新型犯罪主体,实施真正意义上的智能犯罪。这是全新的犯罪现象问题,其内部可以划分不同的情形。这三类犯罪的基本性质,从危害行为的类型看,可以概括为“非法利用智能技术”“破坏智能技术安全”“智能机器人独立实施犯罪”三种情形。相应地,对于这三类不同的犯罪,立法者也要对症下药,增设与之相关的罪名,避免立法的重复性与交叉性,提高立法的专门性与有效性。同时,对于智能主体独立实施犯罪的情形,由于这一观察过于超前,在立法上也应审慎。其二,罪名性质的选择。传统刑法是以结果犯为主的,但在人工智能时代,智能主体实施的犯罪具有很强的技术性特征,因而,在罪名的性质选择上,需要注意的是以下两方面。一方面,应遵循危险犯的适度增设原则。人工智能技术的法律风险,可以认为是一种技术危险。在任何情况下,技术具有中立性,同时,技术风险具有潜伏性、蔓延性以及不可控性等特征。在风险社会,人工智能技术的滥用风险等更可能出现,一些利用人工智能技术的行为往往具有高度危险性,在必要的情况下应当对其进行处罚。然而,增设危险犯应当坚持适度原则,避免犯罪圈的不当扩大。另一方面,要慎重增设过失犯。目前,人工智能技术是人类社会探索科学技术的最前沿。作为一项新兴技术的探索,人类的认识能力是相对有效的,也是随着人工智能技术的发展而发展的。因此,对于人工智能技术及其应用的研发者、设计者、运营者、推广者等而言,在履行有关安全等义务时,需要客观上考虑到技术发展的水平,在认定其是否履行了有关义务时,也应科学地评判其认识能力与避免能力。对于一般的业务过失或监督过失的行为,应当慎重处罚,否则,不利于鼓励技术创新。对于严重过失且造成重大危害结果的,可以在条件成熟的情况下制定相应的罪名。

(三)人工智能犯罪时代的刑罚增设

在刑法学体系的框架下,犯罪与刑罚属于“首尾”两端的基本范畴,犯罪是前提,刑罚是末端,两者的协同呼应关系,是依法有效打击犯罪的制度保障。[30]对于人工智能时代下的新型犯罪问题,传统刑罚体系也需要及时作出相应的调整。

1.刑罚体系更新的必然性

在人工智能时代,犯罪的本质及其特征等因素,都在不同程度上发生了变化,刑事责任的内容也是如此。刑罚作为末端,也受此影响。基于有效惩治和预防犯罪的目的,有必要对传统刑事制裁体系进行一定的调整。

在新的社会形态和犯罪问题等背景下,适时作出调整是必然的。首先,这是罪刑均衡的新需要。从犯罪与刑罚两个基本范畴的逻辑关系看,犯罪的轻重与刑罚的轻重应当是对应的,而且刑罚必须是有效的。在人工智能犯罪时代,犯罪形态的本质特征及其构成要件要素在不同程度上发生了变化,基于罪刑关系的对称性与均衡性,显然不宜继续套用传统的刑罚种类,而需要设置与之相适应的刑罚种类以及刑罚体系。其次,这是实现刑罚目的的需要。重构我国刑罚体系并将智能机器人纳入刑罚处罚的范围符合刑罚的目的,同时也符合人工智能时代发展的需要且并未违背基本法理。最后,这是确认刑事责任主体资格的必然要求。智能机器人是具有刑事责任能力的一种新的犯罪主体,尽管不同于自然人或法人,但其既已纳入刑罚处罚的范围,那么,就必须接受刑罚处罚。只是由于智能机器人不是人,刑罚处罚措施也需要根据犯罪主体的变动而调整。

在此基础上,从刑法学理的角度看,智能机器人所适用的刑罚体系在一定程度上要有别于现有的自然人和单位主体,所以,需要遵循不同的立场和原则。例如,设计智能机器人的刑罚体系时,必须坚持罪刑相适应原则、以刑罚目的为导向原则、刑罚节俭性原则。[31]刑罚措施及其体系必须能够“有效地”惩罚不同类型的人工智能犯罪问题。

2.立法完善的建言

目前,关于立法完善的路径已经形成了以下不同看法。其一,删除数据、修改程序、永久销毁。一是删除数据。强人工智能产品的行动能力依赖其相应的数据信息,也是其实施犯罪行为所依赖的前提。删除这些数据信息,就等于“抹除”强人工智能产品的“犯罪记忆”,强人工智能产品也恢复到原有的正常状态。二是修改程序。如果删除数据的做法,无法删除有可能实施违法犯罪行为的“负面数据”,也就是说无法阻止强人工智能产品主动获取这些实施犯罪的数据。考虑到正面引导的失效,应当强制修改该智能产品的基础程序,限定智能产品获取外界数据、深度学习的能力在特殊的范围之内,进而彻底剥夺实施犯罪行为的可能性。三是永久销毁。如果删除数据与修改程序都无法奏效,而且强人工智能产品在程序上具备了“反删除能力”或“反修改能力”的,那么,永久销毁成为最后的选择。对于强人工智能产品而言,删除数据、修改程序、永久销毁形成了一定的刑罚阶梯与处罚的层次性,可以与强人工智能产品所实施行为的社会危害性及其“人身危险性”形成逻辑与程度上的对应关系。[32]其二,报废、回收改造、罚金等。如果人工智能产品具有自主意志,则应赋予其刑事责任的主体地位,相应地,报废、回收改造、罚金等特殊的刑罚措施,是可以考虑的应对措施。一是彻底报废实施严重犯罪行为的人工智能产品,这是最根本、最严厉的处罚措施。二是回收改造人工智能产品。对于实施了犯罪行为的人工智能产品,可以考虑回收,中断智能程序,由专门的技术人员研究系统缺陷,通过改造与试验后,决定重新投入使用,避免研发及制造成本的浪费。三是罚金刑。人工智能产品实施犯罪的,如果犯罪情节轻微的,可适用罚金刑。[33]应该说,这两种看法具有一定的前瞻性和积极意义,对今后如何针对人工智能犯罪问题设计相适应的刑罚措施有参考价值。

显然,根据我国《刑法》所确立的刑罚体系,从刑罚处罚的对象及刑罚处罚的方式等内容看,均无法也不能涵括智能机器人。相比之下,删除数据、修改程序、永久销毁等与人工智能技术相适应的一些“制裁措施”,是能够适用于智能机器人及其相关犯罪的刑罚处罚方式。如果今后立法条件趋于成熟,针对智能主体,可以设置相应的财产刑或者权利刑等措施,提高刑事制裁的有效性。应该说,以强人工智能产品为对象,在设计具体的刑罚措施与体系时,删除数据、修改程序、永久销毁是一种具有可行性的选择,但应更丰富地拓展视野。

3.立法修正思路的探索

设计针对人工智能犯罪的刑事制裁措施及其体系是一项全新的探索,并无现成的经验可循,因而,需要根据人工智能技术及其刑事风险的动态进行考量,具体而言,应考量以下方面。其一,传统刑罚种类的历史扬弃命运。诚然,死刑、有期徒刑或者罚金刑、驱逐出境等传统意义上的生命刑、自由刑、财产刑以及资格刑等刑罚制度,对于智能犯罪以及智能机器人的犯罪主体而言,不仅在内容与形式上不相适应,而且也暴露了传统刑罚种类在智能犯罪时代的“无效”问题。进一步讲,人类社会在近现代刑法体系中所确立的自由刑为主导、财产刑为辅助的刑罚结构,由于具体的刑罚措施与刑罚种类无法对智能犯罪主体起有效作用,使其立法的滞后性暴露无遗。在此情况下,诸如死刑等具体的传统刑罚措施被迫作出改变,“扬弃”成为最理性的选择。尽管如此,传统刑罚体系与刑罚结构的法学构建思维与逻辑,仍有其可借鉴之处。例如,对于智能产品而言,研发者与设计者基于“算法”而制作的电子运行程序,在很大程度上决定了智能产品作为犯罪主体的“行动能力”,即具有决定刑事责任能力的作用。对其进行不同程度的限制或删除,可以起到类似于“终极剥夺”或“有期限的限制”等制裁效果,与针对人类的死刑或有期徒刑措施,有同样的效果。其二,类型化的思维。在人工智能时代,智能机器人的智能程度不尽相同,智能产品的表现形式不一,研发者、设计者也有差异。在此背景下,为了避免立法的碎片化,应当重视类型化的立法思维,对同类型或相似类型的犯罪主体,设置相适应的刑罚措施,从而建立健全人工智能时代的刑罚体系。其三,分阶段、分步骤增设新的刑罚措施。人工智能技术是不断发展的,其应用过程中所产生的刑事法律风险也会变动不定,但不变的是智能技术的风险问题。因此,在调整刑罚种类与刑罚体系时,应当因地制宜,分阶段、分步骤进行调整。也就是说要根据人工智能犯罪的发展趋势、基本规律、主要类型、危害属性等多种因素,立足“刑罚有效性”的目的,不断修正和完善刑罚种类,继而完善刑罚体系,实现可持续的应对效果。


【注释】 作者简介:王燕玲,华南师范大学法学院副教授,法学博士。

[1]参见孙道萃:《人工智能对传统刑法的挑战》,《检察日报》2017年10月22日。

[2]参见高奇琦、张鹏:《论人工智能对未来法律的多方位挑战》,《华中科技大学学报(社会科学版)》2018年第1期。

[3]参见郭少飞:《“电子人”法律主体论》,《东方法学》2018年第3期。

[4]参见陈吉栋:《论机器人的法律人格基于法释义学的讨论》,《上海大学学报(社会科学版)》2018年第3期。

[5]参见孙占利:《智能机器人法律人格问题论析》,《东方法学》2018年第3期。

[6]参见袁曾:《人工智能有限法律人格审视》,《东方法学》2017年第5期。

[7]参见刘宪权:《人工智能时代刑事责任与刑罚体系的重构》,《政治与法律》2018年第3期。

[8]参见马治国、田小楚:《论人工智能体刑法适用之可能性》,《华中科技大学学报(社会科学版)》2018年第2期。

[9]参见张建文:《格里申法案的贡献与局限》,www.iolaw.org.cn, 2018年8月7日访问。

[10]参见上注,张建文文。

[11]参见高铭暄、马克昌主编:《刑法学》(第七版),北京大学出版社、高等教育出版社2016年版,第85页。

[12]参见刘宪权、朱彦:《人工智能时代对传统刑法理论的挑战》,《上海政法学院学报》2018年第2期。

[13]参见詹可:《人工智能法律人格问题研究》,《信息安全研究》2018年第4期。

[14]参见刘宪权、胡荷佳:《论人工智能时代智能机器人的刑事责任能力》,《法学》2018年第1期。

[15]参见谢望原:《论拒不履行信息网络安全管理义务罪》,《中国法学》2017年第2期。

[16]参见孙道萃:《非法利用信息网络罪的适用疑难与教义学表述》,《浙江工商大学大学学报》2018年第1期。

[17]参见赵秉志:《中国刑法的最新修正》,《法治研究》2015年第6期。

[18]参见刘宪权:《人工智能时代的刑事风险与刑法应对》,《法商研究》2018年第1期。

[19]参见前注[7],刘宪权文。

[20]参见刘明祥:《区分制理论解释共同过失犯罪之弊端及应然选择》,《中国法学》2017年第3期。

[21]参见孙道萃:《网络财产性利益的刑法保护:司法动向与理论协同》,《政治与法律》2016年第9期。

[22]参见黄太云:《〈刑法修正案(七)〉解读》,《人民检察》2009年第6期。

[23]参见前注[18],刘宪权文。

[24]参见前注[14],刘宪权、胡荷佳文。

[25]参见陈兴良:《犯罪主体的消解——一个学术史的考察》,《环球法律评论》2011年第1期。

[26]参见孙道萃:《网络安全刑事保障的体系完善与机制构建》,《华南师范大学学报(社会科学版)》2017年第5期。

[27]参见王肃之:《人工智能犯罪的理论与立法问题初探》,《大连理工大学学报(社会科学版)》2018年第4期。

[28]参见郑戈:《如何为人工智能立法》,《检察风云》2018年第7期。

[29]参见前注[18],刘宪权文。

[30]参见孙道萃:《罪责刑关系论》,法律出版社2015年版,第21-23页。

[31]参见前注[7],刘宪权文。

[32]参见前注[7],刘宪权文。

[33]参见蔡婷婷:《人工智能环境下刑法的完善及适用——以智能机器人和无人驾驶汽车为切入点》,《犯罪研究》2018年第2期。

【期刊名称】《政治与法律》【期刊年份】 2018年 【期号】 1



    进入专题: 人工智能  

本文责编:陈冬冬
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 刑法学
本文链接:https://www.aisixiang.com/data/115035.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统