返回上一页 文章阅读 登录

刘仁文 曹波:人工智能体的刑事风险及其归责

更新时间:2021-11-01 10:50:08
作者: 刘仁文   曹波  
防止国家刑罚权过分或不当侵入公民社会生活,强调合理划分不同法律部门在调整特定行为的具体分工,实现特定行为法律规制系统内部的协调性与互补性,而限定刑法规制范围却非刑法谦抑性的必然要求,刑法规制范围也并非越窄越好。“尽管刑法谦抑主义特征仍然需要予以重视,但这并不等于说,刑法就是消极的,甚至是无为的。”[14](P20)当特定行为具备值得刑法规制的必要性和可行性时,刑法应当果断地介入该行为的规制,以发挥刑法有效且有力的社会规制机能。如果特定危险客观存在并严重威胁法益,适当扩充刑法规制范围以及时介入该危险的防控和治理,正是刑法作为保护人类法益的最后一道防线的题中之义。既然人工智能带给人类社会的刑事风险客观存在,运用刑法给予应对必定是刑法切实承担保护法益任务的表现,并不违背刑法的谦抑性原则。

  

   (三)人工智能风险刑法规制需要教义学与立法论衔接互补

  

   人工智能作为人类社会变迁中出现的新技术,人工智能体侵害人类法益无疑为前所未有的新问题,批判论者希冀完全依靠既有的刑法教义学范式在现有刑法体系内充分解决人工智能体刑事归责问题,明显夸大刑法教义学的功能,割裂刑法教义学与刑法立法论之间应有的联系,缺乏方法的妥当性和实践的可行性。“‘伪问题论’通过质疑将来而回避问题本身的论说思路可能并不可取,看不到或者忽视‘将来’的思考也无益于问题的有效解决,因而‘伪问题论’自身的问题意识也存在合理性疑问。”[15]刑法学研究须秉持应有的务实态度和开放理念,对当前人工智能刑事风险的具体内容和样态进行现实性考察以及必要的前瞻性预测,并根据刑事风险属性的差异,给予不同的刑法规制:对刑法规范体系已能较为充分评价的刑事风险,尽可能运用刑法教义学作用范围内进行准确认定和评价;对运用刑法教义学难以在当前刑法规范体系内准确或者全面评价的人工智能刑事风险,应当转变研究视角,通过制定新的罪刑规范予以规制。

  

   就人工智能体侵害法益及其归责问题来看,现有刑法教义学资源能够基本解决自主性较弱的弱人工智能体侵害人类法益的刑事归责问题,但对具有较强(或完全)自主性、具备独立意识和意志的强人工智能侵害法益行为,却难以给予适当的刑法评价和处置,亟需建构性的“立法论”或“对策论”研究,通过引进新型归责模式来解决其刑事责任分配问题。就此而论,人工智能刑法学研究必然属于批判者所谓的“对策论”,只不过该“对策论”决非恣意的“对策论”,而是建立在新的“教义学”基础上的“对策论”,是对现有“教义学”的必要补充和发展。

  

   诚如张明楷所言,“当下经过了一段解释论之后的刑事立法论,可以避免不合理的立法建议,从而对刑事立法起到更好的指导作用。”[16]刑法教义学与刑法立法论衔接互补的研究范式已经在当前刑法学界对人工智能刑事风险及其规制的研究中得到体现。此外,主张通过新增罪名规制人工智能风险的学者必定也采纳以刑法教义学推动刑法立法论和以刑法立法论补充刑法教义学的双向互动研究范式。[17]依此可见,人工智能刑法规制研究应当继续充分释放既有刑法教义学资源的解释张力,在现有刑法规范体系内规范评价人工智能损及人类法益行为的不法与罪责,避免不必要的刑法条文扩张。以此为基础,对超逸刑法教义学作用范围的人工智能刑事风险及其危害,应当制定新的罪刑规范予以规制,促进人工智能刑法规制司法路径与立法路径的衔接与互补。

  

   二、人工智能体的刑事风险及其归责论争

  

   人工智能所带来的刑事风险除人工智能系统成为犯罪对象被不法攻击或操纵外,还有人工智能体被滥用于实施犯罪的工具性风险,如人工智能体被用于非法搜集公民个人信息、实施诈骗犯罪、侵害社会信用等风险,也有人工智能体脱离人类控制而严重侵害人类的风险。后者又可区分为两类:一是缺乏自主意识的弱人工智能体因程序运行偏差、侵害人类的风险,如前述特斯拉自动驾驶汽车致人死亡事例中,装载自动驾驶系统的特斯拉汽车在交叉路口撞上一辆卡车后面的拖车即是因为程序运行偏差所致:它既错以为拖车明亮的白色部分只是天空的一部分,又错以为司机正在注意路况,如果有事发生,他一定不会袖手旁观。[18](P133)二是能够深度学习的强人工智能体,在自主意识和意志支配下实施程序设计之外的严重侵害人类法益行为的危险。[19]

  

   由于缺乏生命权、身体权、荣誉权和财产权,人工智能体一旦作为犯罪对象被其他犯罪主体所攻击,刑法的聚焦点应为人工智能体自身的算法系统(计算机信息系统)及其相应数据的安全。人工智能体的智能属性及其程度取决于人工智能算法,而“成功的人工智能算法需要三样东西:大数据、强大的电脑运算能力,以及优秀(但未必顶尖)的人工智能算法工程师。”[20](P25-26)在新领域善用深度学习的能力,此三者都是必要的,但其中最重要的还是大数据。如果“喂养”算法系统的数据量越大,人工神经网络获得的样本数据将越多,人工智能体就越能够正确识别出形态,准确辨认真实世界里的东西。当然,人工智能体对算法系统及大数据的依赖也客观上带来算法系统和数据安全的巨大挑战,诱发算法系统与数据安全被不法攻击的危险。对犯罪对象意义上人工智能体刑事风险及其客观危害,应尽可能借助现有刑法罪名体系予以准确评价,即根据行为人行为方式与侵害法益的特征,分别将其认定为刑法分则第六章规定的非法侵入计算机信息系统罪等信息网络犯罪,而当行为人通过破坏人工智能体算法系统或者数据安全操作人工智能体侵犯人类的生命、身体等安全的,可以根据具体犯罪情节,将其认定为以危险方法危害公共安全罪。[21]

  

   在人工智能体被滥用于实施犯罪的责任分配中,犯罪体现的是犯罪人自身的犯罪意志,人工智能体仅作为实施犯罪的特殊工具。“在大多数情况下,算法的背后是人而不是机器在真正发挥决策作用。算法驱动下的人工智能,按照人设定的逻辑,判断、决策、执行各个任务环节。”[22]因此,对于人工智能体犯罪工具风险的刑事归责,应当根据犯罪人滥用人工智能体实施犯罪的客观样态和犯罪人自身的主观罪过形式,对故意设计、制造“邪恶”人工智能体,懈怠注意义务设计、制造严重瑕疵的人工智能体,滥用人工智能体实施犯罪或未尽合理监管义务导致严重危害后果等,分别追究算法设计者、产品制造者与使用者(管理者)的故意或过失犯罪的刑事责任。

  

   例如,人工智能外科医生对病人进行安装新髋关节的手术,手术中人工智体能却出现机械性误差。负责监控手术的人类医生未能尽职地监控手术进程,且无法中途介入以完成髋关节置换术,导致手术不得不提早结束,迫使患者必须进行第二次髋关节置换手术。[23](P26)人类医生原本履行监管义务即可阻断人工智能体内在危险现实化进程,却懈怠监管义务,未能及时发现机械性误差并中途介入完成手术,客观上造成患者髋关节置换不当并需要进行第二次手术,可追究人类医生过失犯罪的刑事责任。不过,“过失意味着不注意,而不注意指的是违反注意义务,也即违反应当为了回避犯罪事实的实现而小心谨慎的义务。”[24](P192)过失犯罪刑事归责的前提要素是具备结果回避可能性,即行为人小心谨慎地履行注意义务,采取回避措施即能够有效地回避法定危害后果的发生,将过失犯罪的刑事归责适用于缺乏结果回避可能性的场合将背离刑法责任主义。据此,如果人类医生尽职地履行监控义务,仍来不及中途介入手术进程,或者即便人类医生中途介入手术进程,仍不能避免人工智能体机械性误差的可能后果,应当以缺乏结果回避可能性为由,将患者因人类医生懈怠尽职监控义务而必须进行第二次置换术的后果认定为不可抗力造成的事故或偶然事件,进而否定对人类医生过失犯罪的刑事归责。当然在此种情形中,人类医生懈怠尽职监控义务符合医疗侵权的构成要件的,不排除从民事侵权的角度考虑追究人类医生的赔偿责任。

  

   在现阶段,人工智能体刑事归责论争的焦点在于:若人工智能产品“变坏”,在运行过程中偏离程序主动或被动侵害人类,该如何分配刑事责任?现代责任主义强调,刑事责任的发动必须具有正当化根据,任何人只能因自己可被非难的行为承担刑事责任。拥有自主意识的人工智能体受其深度学习的指引,在改变自己来适应环境变化的过程中有可能“自主地”“不被预见地”犯下严重侵害人类的“罪行”。在这种情况下,人工智能体研发和运行中所涉及的人类主体都勤勉尽责,所设计和所制造的人工智能体满足合理的产品质量标准,他们与人工智能体的恶行虽有关联但无因果,更无法具体预见人工智能体会严重侵损人类法益,追究其刑事责任将明显抵触现代责任主义。那么,应否肯定人工智能体自身的刑事责任主体地位,以填补人工智能体脱离人类控制而侵害人类风险中可能出现的“责任空白”呢?

  

   对此,肯定论者提出,刑法应重视前瞻预防和风险防控,强调人工智能正深刻动摇传统刑法归责体系及其基础,应从刑事责任能力出发抑或演绎法人犯罪主体法理,根据人工智能体的学习能力和发展代际,肯定具有自主学习能力的智能机器人为“第三类人”“人工人”,赋予其独立刑事责任主体地位,增设删除数据、修改程序、永久销毁等新型刑罚方法,妥善解决人工智能体脱离人类控制、侵害法益的风险中的刑事责任归属问题。[25]与之相对,坚持人工智能体不能成为刑事责任主体的否定论指出,因电子机械运动与人的生理运动之间存在不可逾越的鸿沟,从金属、塑料和指示电极开与关的程序组合中无法产生人的意识。在对人类意识的本质及生成机制缺乏透彻理解的情况下,无论是符号主义还是联结主义,都不能模拟出人的意识。即使假设强人工智能已经到来,考虑对其增设刑罚种类也意义不大。[26]

  

   综合肯定论与否定论来看,否定缺乏自主意识和意志的弱人工智能体的刑事责任主体地位已成为学界共识,论争主要聚焦于强人工智能体是否可以成为刑事责任主体。肯定论者立足人工智能体本身的道义性,主张强人工智能体已经超越工具理性的范畴,成为能够通过深度学习形成自主意识并在其侵害人类法益的过程中实现其自主意识的特殊主体。“现有的罪责理论并不排斥人工智能的罪责,甚至可能发展出一种合理的客观标准作为人工智能罪责能力的判断依据。在此基础上,至少将人工智能主体作为一种拟制的法律主体置于刑法的范畴之内是没有问题的,甚至将其作为道德主体的可能性在事实和逻辑层面也是可以成立的。在人工智能主体具备足够的理性能力的前提下,对其科处刑罚是有意义的,完全符合刑罚目的。”[27]否定论者则继续秉承人类中心主义理念,强调“把人看成是自然界唯一具有内在价值的事物,并理所当然地把人看成是一切价值的尺度,人以外的事物不具有内在价值而只有工具价值,它们理应为人类的利益服务。”[28](P33)人工智能体与人存在明显区别,人工智能体所拥有的“智能”只是人类对于其能够在人类缺乏详细预设的情况下自主完成任务能力的一种表述,并非人类“智力”。 [29](P245)

  

   三、不宜以刑罚来规制(强)人工智能体的刑事风险

  

蕴含强烈规范性谴责和非难的刑罚乃犯罪之最基本、最主要且最核心的法律后果,建构新型“刑罚”以实现对人工智能体自动性运行可能侵害人类法益的刑事风险进行刑事归责似乎是最直接的选择。然而,主张赋予人工智能体(特别是强人工智能体)以刑事责任主体地位,运用刑罚非难、制裁“犯罪”人工智能体以规制强人工智能体刑事风险的肯定论归责方案,(点击此处阅读下一页)


爱思想关键词小程序
本文责编:陈冬冬
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/129370.html
收藏