返回上一页 文章阅读 登录

刘仁文 曹波:人工智能体的刑事风险及其归责

更新时间:2021-11-01 10:50:08
作者: 刘仁文   曹波  

   摘要:人工智能在推动人类社会智能化变革的同时,其不确定性(自动性)所衍生的侵害人类法益的刑事风险是亟待认真对待的“真问题”,绝非凭空臆造、危言耸听的“伪问题”。对人工智能体被滥用于实施犯罪的刑事风险,应根据现有刑事归责原理,按照具体行为方式以及主观罪过形式,分别追究人工智能体背后的算法设计者、产品制造者与使用者(管理者)故意或过失犯罪的刑事责任。对人工智能体脱离人类控制侵害法益的刑事风险,赋予人工智能体以刑事责任主体地位的肯定论归责方案,存在持论依据及论证路径方面的诸多误区。以刑罚规制人工智能体刑事风险缺乏适宜性,应当借鉴“科技社会防卫论”,通过建构保安处分机制,由司法机关在参考专业技术意见的基础上,对严重侵害人类利益的人工智能体适用以技术性危险消除措施为内容的对物保安处分,回避以刑罚规制人工智能体刑事风险必须具备可非难性的局限,进而为人工智能的发展预留必要的法律空间。

  

   关键词:人工智能体;刑事风险;刑事归责;刑事责任主体;对物保安处分

  

   人工智能的概念虽然早在20世纪50年代即被提出①,但其后人工智能的发展和研究却两度遭遇“寒冬时期”,终在21世纪初迎来第三次发展浪潮和研究高峰。近年来,信息社会和知识时代的来临使得信息以惊人的速度膨胀,人类处理浩如烟海的信息的现实需求催动了大数据技术以及智能技术的发展,大有将人类文明从农业文明-工业文明-网络文明的三个递进阶段推入第四个阶段“人工智能文明”之势。受人工智能技术研发以及法律治理需求的影响,中国的法学理论和法律实务界对人工智能表现出强烈的兴趣,刑法领域的研究成果也呈现爆炸式增长的态势,关于人工智能体能否成为刑事责任主体、其刑事责任应采取何种归责模式,甚至对人工智能体应当适用何种“刑罚”等迅速成为热门话题。

  

   一、人工智能体的刑事风险是“真问题”

  

   得益于深度学习、大数据、大规模计算三位一体的联合驱动,人工智能势不可挡地从封闭的实验室走向开放的商业应用道路,其蕴含的强大赋能效应,使得智能思维、智能工厂、智能设备、智能产品及智能管理等不断涌现,正推动人类社会迈入智能时代。不过,如同促进人类社会发展的其他科学技术一样,人工智能在将人类从繁琐纷杂、枯燥单调的工作中解放出来、推动人类社会完成跨越式变革的同时,其内在的不确定性也衍生出影响人类生存和发展安全的现实及潜在风险,客观上引发人类对人工智能安全性的极大忧虑。

  

   然而,对于刑法应否介入人工智能刑事风险、人工智能体能否成为刑事责任主体等问题,目前中国刑法学界不乏否定声音,甚至有学者就刑法学界对人工智能的浓厚兴趣提出火药味甚浓的批评,认为人工智能法学研究出现违反人类智力常识的“反智化现象”。该学者指出,当前关于人工智能的法学研究其实是以“伪问题”代替“真问题”;学者们关于人工智能所谓的“忧患意识”,实则只是依靠无数假想拼凑起来的幻影,只是在用别人的“噱头”吓唬自己;在人工智能法律风险的应对上,当前的研究停留在缺乏教义支持的对策论层面,往往就事论事、毫无体系;主张人工智能可承担刑事责任的观点根本违背人类制定刑法的目的理性,人类对自由刑、死刑的痛苦感来自天然的肉体和心理,机器人没有痛感,在这一点上它连一只有触觉的蚂蚁都不如;对犯罪人工智能体科处刑罚违背刑法谦抑性原则,“法学家从来没有考虑过人类是否能够为机器人成功搭建起道德或伦理的规范体系,而只是简单粗暴地动用刑罚,面对人工智能等高端技术时总是如此急不可耐。”[1]此外,也有学者以人工智能技术发展的阶段性特征为由,认为“讨论人工智能的刑事规制其实是一个伪命题”。[2]

  

   上述批判意见的确为当前相对激进的人工智能刑法学研究提供了理性反思的契机,但断言人工智能刑事风险乃“伪命题”、研究人工智能体刑事归责系以“伪问题”替代“真问题”却不足取,因为它无视人工智能潜在的负面效应给人类带来的危险和危害,犯了从一个极端走向另一个极端的错误。

  

   (一)人工智能内在之刑事风险具有不容否认的客观真实性

  

   人工智能体是否具有刑事风险决不是法学学者的臆想或者断言,而应当由人工智能运行的实际情况以及技术专家的判断来证实。在研发和应用的实践中,人工智能因其自动性和自主性运行特征或程序故障而致人死伤的事例时有报道。如:2015年德国一名大众汽车厂员工在工作中被机器人抓住并压死在金属板上的“智能机器人杀人事件”;同年,中国发生利用人工智能技术破解互联网验证码策略的打码平台非法获取公民信息的“全国首例利用人工智能犯罪案”;2016年装载自动驾驶系统的特斯拉汽车因出现误认而造成全世界首宗自动驾驶系统致人死亡的车祸,特斯拉CEO伊隆-马斯克也明确强调“人工智能是人类文明生存的根本风险”,并呼吁政府迅速而坚决地进行干预、监督人工智能技术的发展;[3]2018年美国亚利桑那州发生优步自动驾驶车撞死行人的事故。此外,以人工智能深度学习为技术支撑的深度伪造(DeepFake)已带来严重的社会风险,尤其是针对公众人物的深度伪造,有对社会秩序和国家安全造成严重冲击与损害的可能。[4]诚然,人工智能体侵害人类的事例尚未普遍发生,却也充分说明能够跟随外部环境变化而自我调整的人工智能体内含失去人类控制而侵损人类法益的危险,决非主观臆断、危言耸听。

  

   从国内外人工智能技术专家的相关研究来看,人工智能内在的不安全性、不稳定性以及具备深度学习能力的强人工智能脱离人类程序控制侵犯人类、反噬人类的可能性和危险性都是得到认可的。例如,英国萨塞斯大学认知和计算机科学学院前院长、有着“人工智能领域的女性牛人”之称的玛格丽特·博登表示,“人工智能已经引起了人们的担心。未来的进步肯定会带来更多问题,所以对人工智能长期安全的焦虑也是非常必要的。更重要的是,它的短期影响也不容忽视。”[5](P185)值得注意的是,牛津大学人类未来研究所曾于2015年发表题为《威胁人类文明的12个风险》的报告,将人工智能的崛起与核战争、巨大火山喷发并列为人类未来的威胁之一。英国伦敦大学学院Dawes未来犯罪案研究中心于2019年2月召开“AI与未来犯罪”研讨会,组织来自学术界、公共部门、私营部门领域具有专业知识的31名代表对人工智能可能涉及的犯罪风险进行科学评测。考德威尔等整理研讨会相关材料,形成并发布研究报告《基于人工智能的未来犯罪》,对人工智能的日益普及所产生的潜在犯罪和恐怖威胁进行分类,并根据预期的受害者损害、犯罪收益、犯罪可实现性和打击难度对相关威胁进行排序,最终对18类威胁给予识别和评级。[6]国内也有不少人工智能技术专家对人工智能内在的危险性发出担忧,表示“人工智能已经不是科幻小说和电影讨论的话题了,现实马上就在眼前。我们必须要把可能的危机与机遇摆在人类的面前,这是人类的权利、科学家职责,我们不能因对未来的恐惧而回避,也无法回避,也不能为了眼前看得见的利益而忘命。”[7](P252)

  

   由此可见,如何妥善应对人工智能的这种内在危险或威胁,科学分配人工智能体侵害人类法益的法律责任,是包括刑法在内的法律体系必须认真对待的“真问题”,至于采取何种刑法措施(刑罚或保安处分),则是刑法关于人工智能刑事风险应对的措施之争,属于解决问题的具体方式,而不涉及对人工智能刑事风险是否为“真问题”的评判。申言之,批评者关于人工智能刑事风险属于“伪命题”的看法既无视人工智能已经带给人类损害的客观事实,还因其反对授予人工智能体刑事责任主体地位的理论主张,误解人工智能刑事风险的具体内容。然而,是否授予人工智能体刑事责任主体地位与人工智能刑事风险是否属于“伪命题”系两个不同层面的议题。理论界就不乏这样的学者,他们即便不赞同赋予人工智能以独立的刑事责任主体地位,却依然十分关注人工智能刑事风险,并积极构建责任分配机制予以应对。[8]

  

   在我们看来,由于评价标准的不同,人工智能体是否会像人类一样直接实施犯罪行为可能存在一定的争议,但人工智能体卷入犯罪而被作为犯罪工具予以滥用或者作为犯罪对象被攻击均属可能,批评者在一定意义上误解了人工智能刑事风险的内容和意涵。正如刘宪权回应批评者时所称,“并非在当今的弱人工智能时代不存在刑事风险,而是批判者为批判或否定别人的观点才对弱人工智能时代的风险采取熟视无睹的态度。就此而言,人工智能技术带来的刑事风险不是法学研究者‘依靠无数假想拼凑起来的幻影’,而认为人工智能技术没有带来刑事风险似乎才是批判者闭目塞听所造成的‘幻觉’。”[9]应当承认,批评者大多强调积极运用既有刑法教义学原理在现行刑法的体系框架下解决人工智能损害法益的刑事责任分配问题,这其实已经径行肯定了人工智能内含损害人类法益的可能,只是认为此种可能性不需要刑法专门进行新的规制。

  

   (二)刑法谦抑性难以否定刑法规制人工智能风险的必要性

  

   刑法谦抑性乃刑法最基础、最独特的属性之一,但却不知从何时开始,在讨论刑法是否应当介入某种新行为或者新领域的规制时,谦抑性总会被提出来作为反对刑法规制的理由,以至于使人产生如下印象:刑法谦抑性已然成为反对刑法介入社会生活的标配性理据,动辄被用于批判刑法新增罪名或者重刑化的立法转向。刑法谦抑性在人工智能风险的法律规制研讨中扮演的角色既有积极的维度,也有消极的侧面,如有学者以违反刑法谦抑性为由反对赋予人工智能法律人格或者刑事责任主体地位,[10]有观点表示刑法对人工智能刑事风险的规制牺牲了刑法谦抑性。[11]但是,不论积极抑或消极,学者们对刑法谦抑性的理解整体是在缓和、否定刑法介入人工智能风险规制意义上展开的,强调人工智能属于新兴科技,刑法前置法以及伦理道德等尚未实现对人工智能的研发和运用提出普世性的明确规制标准,人工智能刑事风险的类型及表现仍有待进一步明确,刑法此时介入人工智能刑事风险的规制过于急切。不过,人工智能刑事风险并非都是尚未明晰的新兴风险,人工智能体被用作于犯罪工具以及被作为犯罪对象的风险已被证实,这些风险给人类利益带来的损害丝毫不亚于甚至远超传统犯罪工具或者传统犯罪。因此,我们在运用刑法谦抑性对刑法是否应介入人工智能风险进行评判时需要慎重,应防止对刑法谦抑性的不准确把握和对人工智能刑事风险的不精确识别导致刑法应介入却因谦抑性的不正当主张而未介入。

  

毋庸置疑,刑事机制最具严厉性且规制成本最高,因而总是在民事侵权责任机制及行政处罚机制难以达到规制效果时,才动用刑事机制介入特定行为,以实现保护法益的目的。“保护法益的手段多数存在,刑罚是制裁手段中最严厉的,而且其社会成本也大(常被比喻成副作用强的药),因此,使用刑罚应该限于其他制裁手段不充分的场合。”[12](P9-10)刑法具有谦抑性的内在品格,是辅助性的法益保护法,不追求规制任何形式、任何程度侵害法益的行为,但这绝不意味着刑法应对人工智能的客观危险熟视无睹、置若罔闻。“刑法的谦抑性原则应当遵循,但也不能无视当今科学技术的高速发展给人类社会所带来的完全不同于以往的冲击。人工智能技术的发展特别是未来可能到来的强人工智能,人类如果对其应对稍有不慎即可能遭遇灭顶之灾。”[13]在相当意义上,刑法谦抑性的要旨在于规范国家刑罚权的行使,(点击此处阅读下一页)


爱思想关键词小程序
本文责编:陈冬冬
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/129370.html
收藏