返回上一页 文章阅读 登录

夏勇 尉立坤:美国学者对人工智能法律问题的研究

更新时间:2022-07-26 08:43:51
作者: 夏勇 (进入专栏)   尉立坤  

  

   加州大学戴维斯分校法学院伊丽莎白·约教授讨论了警察运用人工智能引发的执法权力与个人权利的冲突——在卡彭特诉美国(Carpenter V. United States)一案中,联邦调查局通过手机对行为人进行定位,被联邦最高法院认为违反了宪法第四修正案,属于非法的无证搜查。那么,通过智能系统在公共场所对人和车进行识别,也涉及搜查及其合法性问题。而且,相比于对特定人员进行手机定位不符合宪法规定的正当程序,对不特定人员及其财产进行智能识别还同时侵犯了更多人的隐私。也就是说,尽管警方运用人工智能可以大大提高维护社会治安的效力,但基于保护社会大众隐私权的目的,需要将警方运用人工智能定位和识别的活动视为搜查,并要求事先申请搜查令。随着技术在普通执法中的普及和日渐强化,执法活动的类型归属及其合法性问题也将会更多地摆在法官面前。

  

   加州大学黑斯廷斯法学院学者詹妮弗·本特利讨论了执法无人机与隐私权的关系。根据2016年美国联邦航空管理局(Federal Aviation Administration,FAA)统计,美国共有250万无人机,预计2020年将达到700万,其中不少为警方、消防、应急等执法部门所用。这引起了公众和隐私保护组织的担忧,“一旦有了监视和数据存储设施,用来实现其他企图的诱惑是无法阻挡的”。然而,无论联邦还是州或地方,对无人机的法律规制都很薄弱。虽然联邦层面已有针对无人机的立法,但重在飞行安全而非隐私保护。一些国会议员正在尝试提出旨在保护公民隐私不受政府干预的法案。另一些议员认为,州才是保护隐私立法的最佳主体。为回应保护团体和公众的诉求,过去几年间各州都在不同程度上出台了相关法律。不过,美国联邦航空管理局认为涉及管制空域的这些立法都侵犯了联邦法律所授予的专有权力。就这些州法律对隐私权的保护来看,有18个州要求执法部门在使用无人机监视或调查之前申请搜查令,32个州要求执法部门在非紧急情况下取得搜查证。但在特定利益群体面前,一些州的此类努力归于失败。在州法律的空白之处,地方政府采取了一些保护公民隐私和公民自由的措施。从司法看,涉及隐私权的一系列判例,尤其是最高法院20世纪80年代在三个关键案件中确立的航空监视规则,都是基于载人飞行器,仅有部分被用于无人飞行器。这些规则难以适应无人机对隐私形成的挑战。隐私一向被视为州和地方管辖的领域,仅在特定情况下由联邦管理。但是,若由地方规制,则容易造成规则的冲突。因此,州立法应是最佳选择。本特利还拟出了有关无人机监视的具体立法议案,包括对执法部门使用无人机的限制(用于搜查的期限、程序、场合、抗辩),数据保留的限制(时间、保存要求、检索程序、使用),基于无人机平台的技术限制(感官增强技术、武装设备)等。

  

   纽约州立大学杰森·泽诺副教授预判人工智能会逐步取得公民才享有的宪法权利。“20世纪之前,大概想象不到动物会出庭或者公司有宗教权利。但今天这些都成了现实。人工智能亦是如此。”他认为,人工智能获得法律人格的过程,极有可能与动物和企业类似。此外,美国的历史也呈现出某种昭示——“宪法曾赋予作为财产的奴隶以投票权,来增加南方蓄奴州在国会中的分量。人工智能也可能会出于此目的被当作人”。这就是说,出于利益平衡的需要,人工智能的表决权将成为一个宪法考量的问题:是人工智能自身行使投票权,还是由谁最终控制投票?

  

   斯坦福大学研究员伍德罗·哈托格指出,当人类体内植入机器时,将引起隐私权和自主性的危机——前者涉及个人宪法权利的保护,后者涉及公民宪法地位的确定。

  

   可见,美国学者十分关注人工智能涉及的宪法问题,就人工智能是否享有公民的基本权利展开研究,重点讨论并肯定了人工智能的言论自由权利。同时,面对无人机等人工智能手段不断增强公权力执法能力的趋势,表达了对公民个人隐私权利保护的担心,提出了人工智能参与执法的合宪性和相应立法制约的必要性问题。显然,美国学者对人工智能法律问题的研究遵循了宪法至上的一贯原则,并且将个人权利本位作为研究的出发点。这给予我们的启示是,尽管各国政治制度和法律本质不同,但宪法作为一国的根本大法,是任何部门法建设和任何具体法律问题研究的基础。值得肯定的是,我国学者也注意到了人工智能领域的一系列宪法问题:人工智能会不会改变“人”的概念?人的主体性在人工智能面前能否继续坚持?人的道德判断会不会被解构进而被否定?自由、平等与民主等一系列基本价值是否会被削弱?要控制科技的非理性,在发展科技的同时保护人的尊严,把风险降到最低,我们必须要选择一个制度安排,这就是“宪法治理”,否则,“一百年以后我们将面临无法想象的社会”。我国学者指出,从更为宏观的历史视野来看,科技革命必然带来法律规则的改变,人工智能的发展也不例外。只有通过宪法的干涉,才能避免人工智能时代资本和技术精英对资源的垄断。中国共产党和中国政府既需要高度重视人工智能所带来的重大改变,也需要通过宪法积极调整和弥补人工智能可能引发的对社会平等的冲击。我国学者的这些研究十分有益,但与美国学界关注的人工智能宪法问题相比,还显得宏观和抽象了一些,仍有待于在“权利”与“权力”的关系中得到深化。

  

   三、美国学者对人工智能民事法律问题的研究

  

   美国学者卡米尔·穆齐卡注意到,目前有一种“心智上传项目”(mind uploading project),即通过扫描神经网络对大脑进行模拟。他指出,此种项目的可能结果是创造一个类似人类大脑且能工作的有机复制体——“恩特”(ent)。进而,有能力开发制作“恩特”的人,也会有能力雇请律师和游说团体说服最高法院将“恩特”视为人类。如此一来,会产生一系列民事法律问题。例如,特定人类个体死后,其“恩特”备份能否在其配偶和孩子之前继承?“恩特”的备份原则上应在原本人类个体死后才能激活,但人类个体昏迷时能否激活?如果备份激活后原本的人类个体又苏醒过来,从而出现了重复主体,该如何处置?如何防止恶意提前激活备份而导致重复主体?备份能否终结原本人类个体的生命?这些问题的实质是“恩特”在民事法律上具有何种地位,以及备份与原本人类个体之间的关系。此外,“恩特”还会带来“虚假身体”问题——与现在日益增多的用人造部件来取代部分身体或器官的做法不同,“恩特”更可能给人类个体制造一个完全虚假的身体,赋予全新的外表。还有,“恩特”能否结婚或抚养孩子?这些问题同样涉及人工智能的民事主体定位。

  

   洛约拉马利蒙特大学洛约拉法学院教授劳伦斯·索伦认为,人工智能成为法律意义上的人,仅具有理论意义。要回答人工智能是否应该被赋予某种形式的法律人格,必须等到我们的生活方式使这一问题具有紧迫性。不过,做出这一论断的时间是20世纪90年代初,距今已近30年,当今,人工智能成为法律主体日益具有现实性。需要注意的是,索伦教授当时指出寻找人格的边界并不容易,其原因至今仍然成立。(1)人格概念与人性概念不易区分。(2)人格边界比较模糊。胎儿或植物人不能像正常人一样行为,却依然是人,而具有精神生活的一些高等哺乳动物,则不被认为是人。(3)认知科学目前还无法揭示意识、感情等精神生活的基本进程。总之,成为人之标准的因素本身难以把握,影响着人工智能在法律上的主体定位。

  

   在杰森·泽诺看来,人工智能获得宪法性公民权利的起点和进路是在财产法和经济法领域。传统财产法的一个基础是人类控制财产。如同曾经的动物,较低水平的人工智能是受到控制的客体,责任由所有者承担。但是,人道地对待动物却很少遭到反对,这成为动物取得权利的开端。同样,企业也是因为争取到民事财产权利而成为法律意义上的人。试想,人工智能独立地为人或企业工作,却没有被赋予获得报酬的经济财产权利,是否意味着人工智能被作为奴隶对待?这当然会引出平等主体的权利诉求。

  

   宾夕法尼亚大学法学院的艾丽西娅·拉伊回顾了美国立法和司法承认公司人格的历程,以此说明人工智能取得部分人格地位和承担民事责任的可能性,并指出,人工智能的商业化不可避免地会带来一些侵权现象——如果面向消费者的技术在错误的环境中使用或基于错误的假设进行编程,则可能导致经济损失、财产损害、人身伤害甚至死亡,这是必须面对的挑战,然而,人工智能的赔偿责任在各国立法中几乎属于真空地带,法院对此类案件也很少提出意见。无法回避的是,传统侵权法适用于人工智能出现了困难:如果人工智能技术被归类为产品(product),则适用传统的严格责任(strict liability),但这不利于人工智能的开发者和制造者,从而阻碍人类创新和福祉的推进。如果人工智能技术被归类为服务(service),则适用疏忽规则(negligence rule),适用的前提是将因果关系追溯到操作员——虽然通常可以证明人工智能系统造成了损害,却因运算过程的复杂性难以证明这种损害是由系统背后的操作员造成。当前的过错责任要求因果关系追溯到后者(即操作员)。因此,拉伊认为,简单有效的办法是部分授予人工智能系统类似于公司的人格。所有人工智能系统都以有限责任公司的身份直接承担责任,开发者或制造者则因技术造成的损害承担有限责任。这实际上是人工智能体分担甚至取代了开发者和制造者的责任,有利于人工智能技术的创新。同时,这也为受到损害的消费者获得经济补偿找到了恰当而方便的根据。

  

   《华盛顿法律、科技与艺术杂志》(Washington Journal of Law, Technology & Arts)刊载了埃默里大学法学院2016级学生大卫·罗森伯格专题讨论强人工智能体(strong artificial intelligent robots)是否有权拥有不动产的文章。该文中,强人工智能被称为“经认证的智慧生命体”(原文表述为“Clive”,全称为certified living intelligent valued extraterrestrial)。美国的财产法原则上允许自然人和拟制人(artificial persons)拥有财产。但是,宪法和其他涉及不动产的法律不仅仅是规定财产所有权,其背后还包含着道德的人文因素——“一个平等对待和尊重每个人的自由民主的社会的法律框架”——个人的自尊。将此权利扩展到Clive,意味着人工智能体也会获得神圣的人类自尊。这是需要深入研究的。在罗斯伯格看来,在判例法和现实世界中,即使是充当工具的弱人工智能体(weak artificial intelligent robots)其实也已具有一定的代理(agent)意义。Clive则凸显了这一意义——如果Clive为房地产雇主工作,却因为有自己的想法而决定在工作以外行事,谁应承担责任?当前的代理法可以解决此问题。如果第三方合理地认为Clive是在行使代理权,则Clive要承担相应的责任。罗斯伯格同样是用公司人格理论来支持Clive拥有财产。

  

可见,美国学者对人工智能民事法律问题的研究主要集中在人工智能是否具有“人格”。学者们试图运用法人资格、代理关系等既有民法原理论证人工智能体在民事活动中的主体地位,从而确认人工智能体在法律上的人格,有效解决人工智能引发的民事纠纷和民事责任,实现对相应致害的民事赔偿。学者们也注意到这并不简单,尤其在继承法、婚姻法等人身权利属性突出的领域,人工智能取得人格的论证还面临诸多诘难。(点击此处阅读下一页)


爱思想关键词小程序
本文责编:陈冬冬
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/135532.html
文章来源:《国外社会科学》2022年第2期
收藏