返回上一页 文章阅读 登录

于海防:人工智能法律规制的价值取向与逻辑前提——在替代人类与增强人类之间

更新时间:2019-07-05 00:39:58
作者: 于海防  
这导致面向人类的法律难以简单适用于AI。笔者认为,AI法律问题的产生根源便在于AI对人的替代,无人驾驶、智能投顾、作品定性、责任分担等系列问题的产生均是因AI替代人类实施本来由人类实施的行为,导致原本适用于人类的法律应对困难。

   IA法律问题也有诸多疑难,但大多可以通过对传统理论、既定规则的解释与适度修正得以解决。之所以如此是因为IA奉行增强人类的价值取向,机器的设计是为了改善、提高人类能力,在IA式人机关系中,人处于中心地位,人为主体,机器为客体,这契合法律以人为中心的理念与主客二分的观念,将IA融入法律便不会存在体系性障碍。然而,在AI替代人类的理念之下,机器会采取独立于人类的设计,人的因素会被淡化甚至被消除,在AI式人机关系中,机器处于(技术)中心地位,人类甚至要服从于机器作出的决策,这在根本上与法律以人为中心的理念与主客二分的观念相悖,将AI融入法律便会存在巨大障碍。因此,AI替代人类的理念、以机器为中心的去人类化观念与法律以人为中心的理念、主客二分的观念之间的冲突便是AI法律疑难的症结所在,在未就如何解决这一根本性冲突达成共识、无法确立AI法律规制的基点时,针对具体问题的研究便会显得纷乱。

   (二)人工智能框架性法律问题的归纳

   从与IA相区别的角度而言,各式AI的共性在于贯彻替代人类的理念,在技术上以机器为中心,在应用上以(全部或部分地)替代人类劳动为目标,而这也正是AI法律问题产生的根源。在此基础上,可以从与IA法律问题相区别的角度归纳AI的框架性法律问题,以便于探讨其整体法律规制。

   首先,AI法律规制应当遵循何种价值取向,此系其法律规制的价值基础。鉴于替代人类的AI与以人为中心的法律在价值理念上存在巨大冲突,AI法律规制必然伴随价值取向问题,即AI法律规制在替代人类与增强人类之间应如何权衡、取舍,是顺应AI替代人类的理念与技术,还是予以矫正。

   其次,AI可以替代人类,那么应否赋予AI主体资格,此系AI法律规制的逻辑前提。AI应否拥有主体资格直接决定其法律地位与规制路径,也直接影响对AI系列问题的分析逻辑。诸多学者基于强人工智能已经或将要产生,甚至超级人工智能将来也会出现的趋势,动辄提出法律死亡论,否定传统法,在主张AI拥有主体资格的前提下进行制度设计。但事实上,当前的AI技术条件以及哲学、认知科学上的研究却根本不足以支撑强人工智能必会出现的假设,遑论超级人工智能。

   再次,使用AI替代人类从事各种活动是否正当、适法,应遵循何种规则,此系AI法律规制的具体手段。AI的适法性问题表现为其安全性、伦理正当性、敏感领域应用准入与使用规则等问题。例如,AI在武器领域的运用是否应受限制?无人驾驶中的伤害选择应如何确定?在何种领域可使用AI进行机器决策以及应遵循何种程序?AI使得马克思•韦伯提出的自动售货机式的现代法官的设想成为可能,是否允许实现这种可能?对AI适法性问题的回答决定了各领域AI使用规则的制定。

   最后,AI替代人类实施行为而产生的责任如何认定,此系AI法律规制的最终落实。AI责任问题的难点主要体现在责任主体、归责与因果关系的认定疑难上。第一,应当如何确定责任主体以及如何划定多主体间的责任分担比例?第二,在归责上,对不同类型的AI、不同应用场景应采取何种归责原则?若需考虑过错,如何确定相关主体的注意义务?在判定过错的有无与大小时,机器能否成为判断的对象,应在多大程度上考量AI开发流程、算法、应用方式与外部环境等因素的影响?第三,AI使得原本极为复杂的因果关系问题变得更为复杂,是该套用还是突破传统因果关系理论?如何合理切断过长的因果关系链条?在个案中应当如何进行因果关系认定,可否使用AI代替专家辅助人对标的AI进行逻辑回溯?在法律上如何破解AI固有的不可预见性所造成的难题?在行政法、刑法等领域讨论AI法律责任时也会遇到类似疑难。

   (三)人工智能法律问题的解决思路

   基于对AI法律问题根源与症结的分析,AI法律规制的关键在于解决AI与法律的根本性冲突并通过法律规范AI对人类的替代。从法律体系与立法成本的角度来看,基于前文对AI与IA的辩证统一关系、AI法律问题与IA法律问题承继关系的分析,对AI法律规制的探讨宜在IA法律规制的基础上,围绕AI替代人类的特性进一步展开。前文所提炼的AI四项框架性法律问题正是从AI法律问题的产生根源出发,从与IA法律问题相区别的角度围绕AI替代人类而归纳得出。AI法律规制的基本思路应当是分析与解决此四项框架性法律问题,并向各领域延伸。

   AI四项框架性法律问题涵盖了一般问题与具体问题,较为庞杂。其中,AI法律规制的价值取向与AI是否具有主体资格属于极为关键的一般性基础问题,关涉AI与法律之间根本性冲突的解决,指向AI法律规制核心基点的确立。前者回答了应当如何解决AI替代人类的理念与法律以人为中心的理念之间冲突的问题,确定了AI法律规制的价值基础。后者回答了应当如何解决AI以机器为中心的去人类化观念与法律上主客二分的观念之间冲突的问题,确定了AI法律规制的逻辑前提。诸多AI法律问题的研究便以这两项一般性基础问题为基础,在对这两项问题未达成基本共识、规制基点无法确立的背景下,对包括AI的适法性问题、责任问题以及AI作品、金融、交通与医疗等问题在内的具体问题的研究便难以深入。受限于问题性质及篇幅,下文仅探讨AI法律规制的价值取向问题与AI的主体资格问题。需要注意的是,AI本身便是多学科交融的产物,除自然科学外,AI与哲学、伦理学等人文科学也存在先天的紧密联系,在研究方法上,AI法律研究应当结合其他学科的研究,在许多问题上甚至需要以其他学科研究为基础,AI的这两项一般性法律问题便属此类。

  

   三、人工智能法律规制应贯彻局部替代人类、整体增强人类的价值取向

  

   AI与法律的理念冲突决定了从法律上规制AI首先需要对AI替代人类的理念进行评价,从整体上确定AI法律规制的价值取向,而不是如IA法律规制一样,仅需跟随技术的发展而作出调整。科学、技术具有双重价值性(正价值与负价值),“AI将造福人类”的乐观论与“AI将毁灭人类”的悲观论分别指出了AI因替代人类而产生的双重价值。在替代人类与增强人类之间,法律不得不进行权衡、选择。有学者指出,要从人机协作和人机共生而不是人机对立的角度探寻发展“基于负责任的态度的可接受的AI”的可能性,应当意识到发展AI旨在增强人类而非替代人类。笔者赞同这种观点。

   AI的正价值在于机器智能的再次提升能够让人类的工作与生活更加便利,进一步改造产业模式、提升效率、推动经济发展、扩展对未知世界的探索。随之而来的问题却是AI可能会造成社会结构的巨大变革,冲击劳动力市场,引发严重的伦理困境。AI的本性便是去人类化的,以无人参与的闭环自动化为技术指向,甚至“将自动化本身予以自动化”,在其技术架构中可以没有人类的存在。AI势必继续发展并发挥更大作用,若其以机器为中心、以替代人类为目标的特性不受约束,那么以人类为中心的社会将走向何方?目前已经出现了将人类事务交由AI进行机器决策的情形,若AI智能水平进一步提升,机器决策大规模扩张,将可能产生何种后果?人类连现今的非“智能”网络技术都无法保证安全,何以可能保证具有去人类属性的、强大的“智能”机器是安全的?哲学上的研究多是从认识论的角度研究AI能否以及如何创造出“智能”等问题,价值论的研究相对较少,但已有的价值论研究基本上都是遵循人文主义。人文主义强调个人尊严、价值,坚持以人为本。人工智能伦理学研究也遵循了人文主义,认为应保证AI设计者的伦理性,将符合人类价值的伦理规范嵌入AI,将AI用于增强人类,避免制造出不符合人类价值和利益需求的AI。其中,机器伦理学主要研究如何使AI、机器人在行为上具有伦理性,机器人伦理学主要研究如何对人类设计者进行约束。2017年,电气和电子工程师协会(IEEE)发布的《以伦理为基准的设计:利用人工智能和自主系统最大化人类福祉的愿景》指出以人类价值观为导向的方法论是AI设计的核心。同年,由全球数千名科学家联名签署的“阿西洛马人工智能 23 条伦理原则”第1条原则便指出“人工智能的研究目标应当是创造有益(于人类)而不是不受(人类)控制的智能”。2018年,欧洲政治战略研究中心发布的《人工智能时代:实施以人为中心的人工智能战略》明确提出应将AI用于增强而不是替代人类。可以看出,价值哲学与伦理学并不是简单地跟随与顺应AI技术的发展,而是坚持以人为本,认为应对AI施加必要限制。在面对人类整体族群利益时,AI法律规制的价值理念并非一个特别复杂的问题,在以机器为中心与以人为中心的冲突之间应当选择后者。在法律上,如果只是基于AI的正价值而顺应与促进AI的发展,对AI的负价值却不予限制,无疑是违背人类整体利益与人文主义精神的。

   需要注意的是,“替代人类”“增强人类”在技术语境中多为微观意义上的,在价值哲学与伦理学语境中则多为宏观意义上的。从法律上看,坚持AI在宏观上、整体上用于增强人类,并不是要否定AI在微观上、局部上对人的技术性替代,AI对人类的贡献也正在于此。法律应当肯定AI局部性替代人类的积极意义,并预防和避免人类整体性利益被损害。因此,从法律上规制AI,应当采取局部替代人类、整体增强人类的价值取向,适度矫正AI替代人类的理念与技术,对AI前置性地施加以人为本的整体价值负载,提前研判与化解AI对社会结构的冲击。鉴于AI在技术上具有去人类化的属性,其应用具有一定程度上的不可预见性、难以理解性,而且没有任何机构能够保证AI可以被人完全控制,法律在保障AI整体上不偏离增强人类的方向之外,还需要根据AI以机器为中心的技术特性制定相应的规则,从源头上保证人对AI的控制及其可归责性,以弱化复杂的伦理困境与责任认定疑难,尽量消解因AI替代人类而产生的不利影响。笔者认为,局部替代人类、整体增强人类的价值取向应当贯彻于AI其他三项框架性法律问题的解决。第一,AI不具有主体资格(容后详述)。第二,在AI的适法性方面,首先,法律应当确立AI研发规则,要求研发者将伦理代码写入AI,尽量预防伦理风险;其次,在AI使用方面,法律尤其需要确立立法、行政管理、司法审判等敏感领域中的AI准入规则与使用规则,以保障人类安全、服务人类与防范系统性风险,保证人类的最高决策权;最后,AI法律规制应采取主动的事前、事中监管措施,保障技术安全、可控。第三,在AI责任方面,首先,法律应当要求研发者尽可能保障AI的技术可回溯性,在代码层面对AI添加限制,以降低将来认定责任的难度;其次,法律应当强化研发者责任,迫使研发者适度矫正AI,在算法上保证AI行为可归责于相应的人,使AI不偏离整体增强人类的方向;最后,AI责任规则需要在以机器为中心的技术与以人为中心的责任之间建立合理连接,确定归责基础。AI法律规制在立法技术上面临的一般性挑战是,法律规则需要将以AI为基础的法律事实与人关联起来,将以机器为中心的AI置于以人为中心的法律关系之内。

需要指出的是,机器智能技术是会聚技术(NBIC)中的重要技术,可与纳米、生物等技术结合用于改善、增强人类的基因、身体,由此所产生的超(后)人类主义问题超出了本文讨论范围。本文所阐述的增强人类,并不包括将机器智能技术直接融入人类身体而增强人类。从对会聚技术的讨论中可以看出,应当通过制度防范高新技术的滥用,在AI与IA上亦是如此,即便用于增强人类,也存在限度。法律对此必须加强监管,防范技术风险,在必要时应如禁止克隆人一样设置技术禁区。在以人为本、增强人类的理念之下,(点击此处阅读下一页)

本文责编:陈冬冬
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/117020.html
收藏