返回上一页 文章阅读 登录

刘宪权:人工智能时代的“内忧”“外患”与刑事责任

更新时间:2018-01-10 13:26:06
作者: 刘宪权  
能够更快速有效地帮助犯罪分子实施窃取、刺探情报的行为。上述因素都将对国家安全和国防利益等造成极大的威胁。同样,弱人工智能产品对公共安全的威胁也是现实存在的。如恐怖活动分子可以利用弱人工智能产品携带武器、弹药、爆炸物在人员密集的场所或公共区域实施爆炸袭击,进行恐怖活动。利用弱人工智能产品既有利于保证恐怖活动分子自身的安全,也更有利于其进行隐蔽,逃避抓捕。另外,弱人工智能产品被犯罪分子利用可能对社会管理秩序造成威胁。如基于弱人工智能产品强大的信息收集和数据处理能力,可以帮助犯罪分子更快速有效地非法获取国家秘密或者考试内容;又如基于弱人工智能产品在设计和编制的程序范围内可以独立完成相应任务的优势,可能被犯罪分子利用作为运输毒品、毁坏文物的工具。

   当然,利用弱人工智能产品也可以实施危害经济、侵犯财产的行为。《刑法》第287条规定:“利用计算机实施金融诈骗、盗窃、贪污、挪用公款、窃取国家秘密或者其他犯罪的,依照本法有关规定定罪处罚。”由此可见,在弱人工智能产品只能作为工具的情况下,利用其实施犯罪活动,只能按照犯罪的目的行为进行定性。笔者在此不作赘述。值得一提的是,在金融领域,原先必须由高素质人才完成的大部分工作,已经被人工智能产品所取代。人工智能产品在速度和数据整合准确度上,已经超过金融分析师。现在纽约和伦敦证券交易所的交易大厅几乎形同虚设,真正的交易过程已经全面实现了“机器自动化”,[5]犯罪分子一旦攻破程序的漏洞,控制了这种人工智能产品,就相当于获得了移山倒海的力量,只需一个简单的代码或指令,就会导致证券交易市场的崩溃,而犯罪分子将可以趁市场的混乱收获累累“硕果”。

   利用弱人工智能产品还可以实施危害人身的行为。犯罪分子为了销毁犯罪证据、逃避法律制裁,往往采用借刀杀人、移花接木的手法。而借用弱人工智能产品来杀人就是最有效的方法。同样,弱人工智能产品的设计者、使用者也可以利用弱人工智能产品实施绑架、拐卖等剥夺或限制他人人身自由的行为。弱人工智能的发展和创新应用离不开数据的开放和共享。值得一提的是,腾讯借助QQ、微信等产品建立了10亿级别覆盖度的基础库,对范围内的人群进行统计和分析,能够实现动态跟踪区域内人群流动、评估人流拥挤等级、捕捉开放社交网络的情况、分析目标客户群轨迹,让客户更精准的定位目标人群。[6]这些信息一旦被过失或有意泄露,造成的危害后果将难以想象,不仅是对公民个人信息的侵犯,更会对公民的人身安全和财产安全造成巨大威胁。

   应当看到,尽管弱人工智能产品威力巨大,在犯罪中发挥着重要作用,甚至在某些情况下可以完全替代设计者或使用者实施严重危害社会的行为,且其实施的行为涵摄到刑法所规定的方方面面的犯罪,但是弱人工智能因为不具有辨认能力和控制能力而始终无法摆脱工具属性,其实施的行为体现的是设计者或使用者的意志,只能被看作设计者或使用者行为的延伸。所以在弱人工智能时代,犯罪行为只能是在弱人工智能产品之外的设计者或使用者的意志支配之下而实施,笔者将这种情形称之为弱人工智能时代的“外患”。

  

   三、强人工智能时代的“内忧”

   笔者认为,强人工智能产品与弱人工智能产品的本质区别在于是否具有辨认能力和控制能力。强人工智能产品通过学习,产生脱离程序的独立意志,具备独立思考能力。笔者认为,强人工智能产品的行为可以分为两种:一种是在设计和编制的程序范围内的行为;另一种是超出设计和编制的程序,自主决策所实施的行为。对于前者而言,强人工智能产品与弱人工智能产品并无不同,此时的人工智能产品仅能作为工具,其行为本质上是人工智能产品的设计者或者使用者行为的延伸,实现的是设计者或使用者的意志,行为所产生的后果也应全部归责于设计者或使用者。对于后者而言,强人工智能产品与弱人工智能产品相比则有很大区别,此时的人工智能产品已经完全超出工具的范畴,其行为不再是设计者或使用者行为的延伸,而是为了实现自己的意志、自主决策并自主实施的行为,行为所产生的后果也不能当然地归责于设计者或使用者。

   正因为强人工智能产品具有独立意志,因此其实施的行为有可能不符合程序设计和编制的目的,甚至从根本上违背设计者设计和编制程序的目的。在此状态下,强人工智能产品完全可能实施人类无法控制的严重危害社会的行为。早在1940年,美国科幻作家阿西莫夫就预想到在未来,机器人有可能在具有独立意志之后,做出危害人类的事情,因此为了保护人类,其提出了“机器人三原则”[7],并因此获得了“机器人之父”的桂冠。这三个原则体现出人工智能的发展不应威胁到人类自身安全的愿望。当然,在人工智能时代,即使有了原则,原则也未必起多大作用。当脱离程序控制的强人工智能产品出现时,有可能真的会成为“我们人类文明面临的最大威胁”,谁也不敢保证科幻电影中强人工智能产品HAL杀死飞行员的场景不会在现实中上演。“防范机器人向负面发展已经迫在眉睫,无须等到机器人的智能等于人的智能的那一天……它们带给人类社会的不只是工作效率的提高和人的生活改善,将冲击或改变人类社会的某些规则。”[8]“居安思危,思则有备,有备无患。”[9]虽然目前所出现的弱人工智能产品尚不能对人类社会构成威胁,但是既然我们已经预见到随着深度学习、神经网络、蒙特卡洛树搜索、云计算等技术的不断发展,脱离人类设计和编制程序控制的强人工智能产品有出现的可能,就应当提前在刑事法律层面做好准备,以防止强人工智能产品给现行刑事责任追究制度带来挑战时,我们的刑事立法和刑事司法措手不及、无法应对。

   尽管在某种程度上,弱人工智能产品的出现有可能对国家安全、国防利益、公共安全、社会管理秩序、公民的人身和财产安全等造成负面影响,但是正如前文所述,弱人工智能产品只具有工具性的意义,对于其给人类社会带来的风险系数增加的状况,我们只能按照规制传统犯罪的方法对弱人工智能产品的不当研发和使用加以控制,而不能考虑由仅能作为犯罪工具的弱人工智能产品承担刑事责任。但是,一个新的具有辨认能力和控制能力,可以自主作出决策并实施相应行为的强人工智能产品的出现,则必然会对现行的刑事法律体系带来冲击和挑战。人工智能产品的普及完全可能使得其在人类社会生活中的地位从普通工具上升至法律主体的高度,这是不可回避的社会发展的必然。正因为如此,未来人类社会的法律制度都需要针对人工智能技术的发展进行相应的调整。我们必须认识到强人工智能产品与弱人工智能产品在本质上的差异,并明晰强人工智能产品在刑法中的地位。具有辨认能力和控制能力的强人工智能产品自主决策并在人类设计和编制的程序范围外实施犯罪行为时应如何处理,是强人工智能时代不可避免的“内忧”,也是需要刑法必须正视和解决的问题。

   从上文分析中可以得出结论,强人工智能产品完全有能力在设计和编制的程序范围之外实施严重危害社会的行为,完全有可能对刑法所保护的社会关系造成严重侵害。简言之,强人工智能产品有能力对刑法所保护的客体造成侵害。

   刑法中所规定的行为在狭义上指的是“危害行为”,即由行为人意志支配之下违反刑法规定的危害社会的客观活动。马克思曾有名言:“对于法律来说,除了我的行为以外,我是根本不存在的,我根本不是法律的对象。”一切法律都是以规制行为作为其内容的。那么“行为”是否必须是“人”的行为?假如我们列出“行为”的所有必备要件或本质特征,而强人工智能产品在具有辨认能力和控制能力的情况下实施的行为又能够全部符合的话,是否意味着法律也应当将强人工智能产品在设计和编制的程序范围外实施的行为纳入规制范围?对于上述问题,笔者已在相关论文中进行过详细阐述。笔者认为,强人工智能产品在设计和编制的程序范围外的行为既然相比于传统理论对于“行为”的定义,除了不满足自然人犯罪主体需具有生命体的要素之外,其他的要素似乎均符合行为理论要求,而这一结论又是因为以传统理论未预见到人工智能技术会取得如此大的进展为前提的。就此而言,在强人工智能产品的“智能”高度发展的状况下,突破传统理论显然不足为奇且无可厚非。可以认为,强人工智能产品在设计和编制的程序范围外的行为可以成为刑法意义上的“行为”。

   理论上认为,作为刑事责任主体必须具有辨认能力和控制能力。自然人的辨认能力和控制能力来源于生命,受到年龄等因素的影响,而强人工智能产品的辨认能力和控制能力则来源于程序和算法。刑法意义上的辨认能力是对行为的性质、后果、作用的认识能力,这种认识包括事实层面的认识和规范层面的认识。事实认识是一种形式上的认识,强人工智能产品可以通过其“电子眼”、“电子耳”认识到事实。相较于辨认能力,控制能力是强人工智能产品的必备能力,是程序设计与编制的必须内容。强人工智能产品拥有极快速的处理能力、反应速度和极精准的控制能力,能够凭借大数据与高速运算能力对行为进行精准的控制。与人类相比,强人工智能产品具有更强的控制能力与可培养的辨认能力。由此可见,强人工智能产品可以符合刑法所规定的犯罪构成中的主体要件。

   罪过是主观目的的表现,罪过形式可以表现为故意或过失。所谓故意,是指明知自己的行为会发生危害社会的结果,并且希望或者放任这种结果发生。所谓过失,是指应当预见自己的行为可能发生危害社会的结果,因为疏忽大意而没有预见,或者已经预见而轻信能够避免,以致发生这种结果。刑法中的罪过形式(故意或过失)包括认识因素和意志因素两个方面。正如上文所提及的,与能够作为刑事责任主体的自然人相比,强人工智能产品具有更强的控制能力与可培养的辨认能力,而辨认能力和控制能力又与认识因素和意志因素具有密切的联系,所以具有辨认能力和控制能力就具备了在主观上形成故意和过失的两种可能。应当看到,虽然我们应当承认强人工智能产品具有成立故意和过失的可能,但是对于强人工智能产品故意或过失的主观罪过判断,应与对自然人责任主体的主观罪过判断有所区别。原因在于,在认定自然人责任主体的主观罪过时,通常以一般人的认识能力作为基本标准并结合行为人自身的特殊情况进行判断。自然人责任主体形成对事物的认识是靠学习和生活经验积累;而强人工智能产品形成对事物的认识是靠程序、算法和深度学习而不是靠生活经验的积累,且设计者设计大部分强人工智能产品的初衷可能是为了让其在特定领域中发挥作用,因此强人工智能产品的认识水平在很大程度上会被局限于特定领域,而缺乏对社会生活的整体认识,其判断是非善恶的标准也就有可能异于常人。但无论如何,强人工智能产品的主观心理可以符合刑法所规定的犯罪构成的主观要件。对此,似乎不应该有太多的异议。

  

   四、人工智能产品的刑事责任

   正如前述,强人工智能产品在设计和编制的程序范围内实施的行为,与弱人工智能产品没有差别,所造成的刑事法律风险属于“外患”。此时,应将强人工智能产品视为犯罪工具。而强人工智能产品超出设计和编制的程序范围自主决策并实施严重危害社会的行为,所造成的刑事法律风险属于“内忧”,其所实施的行为完全符合刑法所规定的犯罪构成要件。此时,可以将强人工智能产品实施的这种行为视为犯罪行为,并给予刑罚处罚。

   (一)“外患”情况下的单方责任

“外患”情况,指的是人工智能产品在设计和编制的程序范围内实施行为,被行为人利用进行犯罪活动的情况。在这种情况下,设计者是人工智能产品的创造者,并通过程序给人工智能产品设定行为目的和行为边界。此处的人工智能产品可以是弱人工智能产品,也可以是没有超出设计和编制程序实施行为的强人工智能产品。此时的人工智能产品虽然有可能基于深度学习和算法作出相应判断并进而实施行为,但这些判断和行为仍是在程序控制范围之内,实现的是设计者或使用者的意志,其行为完全符合设计者设计和编制程序的目的。(点击此处阅读下一页)

本文责编:frank
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/107768.html
文章来源:《东方法学》2018年第1期
收藏