返回上一页 文章阅读 登录

李婕:智能风险与人工智能刑事责任之构建

更新时间:2019-06-13 22:15:52
作者: 李婕  

   【摘要】 人工智能机器人具有机械性和自主性特点,其刑事归责冲击犯罪主体概念、罪过理论、因果关系认定和行为理论。目前人工智能的法律责任缺失和监管真空将导致严重的伦理危机和社会危害。美国学者类比法人刑事责任原理,提出机器人刑事责任的三种模式,即代理人责任模式、自然—可能—结果责任模式和直接责任模式,对于构建人工智能刑事责任具有借鉴意义。智能机器人刑事责任构建应以同一视原则为基础,以自主性为核心:当智能机器人仅扮演工具角色时,适用代理人责任;当智能机器人行为的结果在编程者/使用者“自然—可能—结果”的范围内,适用自然—可能—结果责任模式;当智能机器人的行为完全超出设计者/使用者的预见范围时,独立承担刑事责任。刑法应拟制智能机器人的法律人格,确认其罪过,避免人工智能技术风险上升为刑法风险。

   【中文关键词】 人工智能;自主性;同一视原则;刑事责任

  

   人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。[1]人工智能技术建立在大数据分析和深度学习基础上,广泛应用于交通、通讯、医疗、家居等行业。根据国务院《新一代人工智能发展规划》,我国在2020年人工智能总体技术和应用达到世界同步水平;2025年人工智能的部分技术与应用达到世界领先水平。人工智能带来技术进步的同时也曾出现致人伤亡的事故,例如,自动驾驶汽车的环境扫描传感器未将孩子识别为人类,将其碾压;[2]扫地机器人将女主人褐色的头发识别为灰尘吸入吸尘器[3]……目前学术界关于人工智能刑事责任的探讨主要集中于刑事责任成立与否、人工智能刑事主体资格的法哲学分析等。对于技术异化、机器人杀人等危害后果,究竟应归责于其开发、使用者,还是应归责于机器人本身,目前尚无深入研究。面对即将到来的人工智能浪潮,刑法是否准备好迎接挑战,担负起“保障人工智能健康发展”的任务与使命,亟需理论探讨。

  

   一、人工智能技术对刑法的挑战

  

   传统刑事责任建立在罪责理论的基础上,需要意志自由的行为人认识到自己行为的危害后果,如果行为人在能够选择善的行为时选择了恶的行为,就具备刑事可责性。人工智能机器人通常按照预先的编程实施行为,其是否具备法律意义上的认识能力和判断能力,如何对其进行道德可责性认定,是刑事归责面临的重大挑战。除了罪责理论外,人工智能技术对其他刑法理论也带来了不少冲击。

   (一)理论冲击

   1.刑法上“主体”概念的更新

   犯罪主体是具备刑事责任能力,实施危害行为的自然人或单位。智能机器人如无人驾驶汽车或管家机器人,具有识别、分析能力,能够模拟人类进行判断,但其在法律性质上并不属于自然人或单位。欧洲曾出现机器人在工作场所杀人事件,美国也曾出现无人驾驶汽车撞伤行人的事故。如果机器人的设计者、使用者均无过错,能否让实施危害行为的机器人承担刑事责任?

   刑事责任主体的根本问题是刑法上的“人”意味着什么,这是哲学家们一直争论的问题。例如,约翰·洛克认为刑法上的人具有“自我反省能力为基础的人格”,一个“智能的代理人”必须“有法律能力,觉察到幸福和痛苦,且有他自己的意识:只有通过意识,它才会为自己的行为负责。”伊曼努尔·康德同样强调自我意识的重要性:“只有人意识到自己,他才能理解自己的自由,遵循自己的意志是他每一行为的原因。”[4]因此,一个人知道他可以克制自己的行为却实施了恶的行为时,他才对自己的行为负责。显然,智能机器人不符合理想人格的要求:机器人虽然可以学习和决策,但仍然没有自由的意识,无法理解自己行为的社会意义,无法反思自己行为的好坏,更无法理解权利和义务的概念。因此,人工智能机器人虽然能够根据指令实施行为,但其仅是“自由意志”的代理人,难以认定为自然人或单位。如果让人工智能机器人为危害结果负责,势必要扩充犯罪主体的范围。

   2.罪过理论的动摇

   罪过是指行为人实施危害行为时的主观心理状态,主要包括故意和过失。主观擅断曾是封建刑法的重要标志,现代刑法根植于意志自由理论,如果行为人能够选择实施合法行为时,却选择实施对社会具有严重危害性的违法行为,则这种恶的心理态度应当被惩罚。人工智能机器人按照编程来实施行为,法律难以对其自主判断能力进行测量和掌控,难以认定其具有意志自由。例如,生产机器人将因病昏倒的工人视为妨碍生产效率的“障碍”予以清除时,并未意识到自己行为的社会危害性,难以认定其具有犯罪故意。对于无罪过的行为主体施加刑事责任不但过于苛刻,而且难以达到预防犯罪的效果。规范责任论要求行为人具备道德自决能力,智能机器人显然不符合这一要求。如果将智能机器人执行编程的分析、判断认定为刑法上的罪过,心理责任论或规范责任论将不得不吸纳机械责任论的成分,罪过理论似乎又倒退到封建刑法时代。

   3.因果关系判断困难

   因果关系是指实行行为和危害结果之间引起和被引起的关系。例如,当自动驾驶汽车突然转弯撞伤行人,是否该汽车的设计者、使用者与被害人受伤之间具有因果关系?在对人工智能的危害结果溯因过程中,很多因素阻碍因果关系的认定。例如,智能系统的自主学习性很强,它的开发者可能无法预测将来会出现什么危害后果,则设计、研发行为难以认定为危害后果的原因;智能系统的深度学习是典型的“黑箱”算法,无法判断算法如何决策,技术上也难以发现系统中决策偏差的根源,故编程行为与危害结果之间的因果关系也难以认定。很多情况下,人工智能的编程失误、使用者的操作错误,程序与使用者互动过程中的某个代码出现错误共同导致危害结果发生,更加剧了因果关系判断的困难。例如,达芬奇手术系统扩大了手术的切割面积,护士对病人疏于照顾,最终导致病人死亡时,应适用什么标准来认定因果关系?社会相当性说、近因说、高度可能性说等观点都难以对因果关系进行充分阐释,其结果不但影响罪名既遂与否,而且影响量刑轻重,故因果关系判断困难是认定人工智能刑事责任不容忽视的问题。

   4.行为概念的反思

   刑法上的行为概念经历了因果行为论、社会行为论、目的行为论、人格行为论等发展历程,而智能机器人的行为难以完全符合上述观点。从物理角度看,智能机器人行为致人伤害具备因果行为论的特征;从机器人按照编程目标实施行为的角度看,符合目的行为论的特点;但机器人无法认识自己行为的社会意义,很难将其行为认定为“自由意志支配下的行为”,即刑法上的行为。客观来看,智能机器人具备自主性、学习性、互动性等特征,一定程度上能够主宰自己的行为。但机器人缺乏完全的自由意志,无法摆脱其与生俱来的“工具性”特点。在智能机器人致人伤亡的情况下,实行行为究竟应认定为机器人的行为,还是其背后使用者的间接正犯行为,颇有疑义。如果强行将机器人的行为认定为实行行为,刑法又回到了对动物审判的远古时代,这是现代刑法理论所无法认同的。

   (二)后果防患

   1.责任缺失

   人工智能具有提高生产力的优点,也可能带来个人生命、财产的重大损失,亟需刑法进行规制。当前国务院《新一代人工智能发展规划》仅大致勾勒了人工智能发展的政策框架,具体的制度设计、责任建构等问题仍未考虑。所以,人工智能肇事问题面临无法可依的困境,不但不利于人工智能技术的健康发展,而且漠视公共利益。目前美国只有少数几个州对无人驾驶车辆和无人驾驶飞机进行立法,几乎没有任何法律规定谁对危害结果应负法律责任的问题。[5]从犯罪构成的角度看,智能机器人的法律属性、行为性质尚无明确的法律定位,其在自主学习的过程中实施超出预测之外的行为是否充足罪过要求等问题,仍然悬而未决。目前也没有任何规范为人工智能的软件开发人员、供应商或使用者提供指导。如果漠视人工智能发展过程中的责任问题、任由人工智能技术恣意发展,将不可避免地带来伦理危机和社会灾难,机器人控制人类的科幻情节可能变成现实。

   2.伦理危机

   机器人缺乏承担刑事责任的先决条件,如自我意识、自由意志和道德自律,法律置之不理的结果,不但有违公平正义,而且将引发伦理危机。例如,管家机器人为了完成做菜的任务可能杀死宠物狗,它不认为自己的行为是在“故意毁坏财物”甚至“杀死家庭成员”;医疗看护机器人在“减轻病人痛苦”的目标下,可能终结癌症晚期病人的痛苦以帮助其“永远地告别痛苦”。伦理危机主要由于深度学习的局限性所致,因为深度学习算法如何决策并不为人所知,其中可能潜藏着歧视、偏见、不公平等问题。谷歌公司的数码相册软件曾将深色皮肤的人标记为大猩猩,表明技术错误很容易导致社会不安与仇恨。当前人工智能决策在贷款、金融、犯罪调查、人脸识别等诸多领域中的歧视和不公平问题越来越突出,使得人工智能的伦理问题尤其值得关注。如果没有机构或规则指导人工智能伦理规范的建构和应用,智能机器人很容易偏离其最初设定的目标方向,引发道德崩塌和伦理危机。

   3.监管真空

   在人工智能技术发展中,风险是固有的,也是必须的。人工智能系统及应用作为一种产品,政府不可避免地要考虑其准入、质量和检验标准。由于人工智能的学习能力、适应能力不断提高,现有的规则无法统一适用于不断进化发展的人工智能系统,未来需要进一步对人工智能的准入和监管方案进行制度化,以确保人工智能健康发展。智能机器人建立在后天学习基础上的行为,已经超出了最初设计师、编程者的预测范围,故在科技蓬勃发展和事前预测不足的情况下,难以对人工智能技术进行事前监管;而事故发生之后再制定监管措施则难以挽回损失,所以人工智能监管需要全局考虑,统筹兼顾。美国《国家人工智能研究和发展战略规划》提出构建良性研发的环境基础,要求开发用于人工智能训练、测试的公共数据集和环境,制定用于测量、评估人工智能的标准和基准,了解学界、政府和行业中人工智能从业人员的要求,从而制定教育和培训计划。[6]目前我国人工智能技术基本上是在监管真空中发展,即便政府出台监管规则,在实际执行中也面临事前监管不足和事后监管失效的问题。故如何在技术发展与公共利益、法律规制之间探索出一条适度监管的道路,是当务之急。

  

   二、智能风险与刑法归责困境分析

  

   人工智能机器人的应用建立在大数据挖掘和深度学习基础上,设计者难以预测机器人后天的行为,更无法对其进行充分控制。目前的刑法体系难以将智能机器人致人伤亡的行为认定为犯罪,但放任法益侵害,刑法保护社会的功能将大大受挫。人工智能研发、使用过程中,潜藏着巨大风险,法律如果不及时规制,将引发严重的社会问题。

   (一)智能风险的特征

人工智能风险的特征兼具物理性和功能性两方面。物理性风险集中体现在技术方面的离散性和不透明性,功能性风险体现为自主性特征。人工智能系统的开发过程中,各个分系统的工作是独立的,关键技术呈现离散性分布。由于各个分系统的设计者之间缺乏沟通与协作,研发单位难以制定出统一的注意义务,故研究过程极易出现结构性过失。如果某个程序出现失误,技术人员也很难从浩如烟海的程序中找到问题的原因。不透明性主要指算法上的“黑箱”技术难以从结果反推原因,在过失竞合的情况下,如何查找事故原因并进行归责,是刑事责任的难点所在。人工智能具有自主学习、自主决策、自主行动的功能,这已超越早期机器人仅作为“工具”的角色,是当代人工智能技术的进步标志。自主性功能使智能机器人具备超越自我、甚至超越人类智能的可能性,(点击此处阅读下一页)

本文责编:陈冬冬
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/116706.html
收藏