返回上一页 文章阅读 登录

吴汉东:人工智能时代的制度安排与法律规制

更新时间:2017-08-11 10:06:28
作者: 吴汉东  
是为隐私权保护的基本法,后又于1986年通过《联邦电子通讯隐私法案》,2000年出台《儿童网上隐私保护法》,此外还颁布了《公民网络隐私权保护暂行条例》、《个人隐私与国家信息基础设施》等法律。

   欧盟则在1997年通过《电信事业个人数据处理及隐私保护指令》之后,又先后制定了《网上个人隐私权保护的一般原则》、《信息公路上个人数据收集处理过程中个人权利保护指南》等相关法规。隐私权的保护,是信息时代特别是人工智能时代的法律难题。智能革命不断深入发展的过程,亦是隐私安全风险增大与法律保护强化的过程。

   5.智能驾驶系统的交通法问题

   人工智能在交通领域的重要应用是网联自动驾驶。智能驾驶通过导航系统、传感器系统、智能感知算法、车辆控制系统等智能技术,实现了“人工智能+无人驾驶”,颠覆了以往的人车关系、车车关系。为推动智能驾驶产业的发展,美、德、日等国都在探索,甚至出台了有关交通责任分配的法律规范和安全检测市场准入的监管政策。

   无人驾驶汽车可能带来的法律问题,主要有:

   一是法律规制对象的转变。无人驾驶意味着交通领域的准入资格,不再是驾驶人的驾驶技术,而是无人驾驶汽车的智能化水平。换言之,随着无人驾驶中驾驶人概念的消失,法律规制的对象不再是车辆的驾驶人员,而将是智能驾驶系统的开发者、制造者;

   二是法律责任体系的重构。以过错责任为基础而建立的“风险分配”责任体系,在未来的交通法规中将不复存在。对于道路交通事故的认定,其归责事由只有结果的“对与错”,而无主观上的“故意”或“过失”。

   三是交通监管重心的变化。以交通安全为目标,以往交通管理部门监管的重点是汽车装置的安全性能和驾驶人安全驾驶技能;而在智能驾驶中,避险保障和精确驾驶的软硬件体系,是道路交通检测、准入的重点。

   6.机器“工人群体”的劳动法问题

   人工智能技术发展的基本面向,是对人-机关系的改变。智能机器人的大规模应用,一方面推动了社会生产力的发展,大大提高了生产效率;另一方面也带来了社会结构的变化,使得人与机器人的关系成为社会生活的重要方面。以保护劳动者利益为宗旨的劳动法,面临着前所未有的两个难题:

   一是传统劳动法的调整功能消减。据牛津大学的调研报告,未来将有1000万非技术工种被机器人取代,其中包括文秘、工人、中介、司机等一大批岗位。报告特别指出,目前软件工程师所做的工作将会被智能机器人所代替,即创造者被其创造的技术产品所代替。这些都对现有劳动者的权利带来冲击。大批劳动者离开传统岗位,其权益救济更多是寻求社会保障法,那么“劳动法是否面临消亡的命运?”

   二是未来劳动法将面临新的调整对象。机器人抢掉人类的饭碗,人工智能“工人群体”正在形成。对机器人权利保护或者说禁止对机器人滥用,在当下尚是一个社会伦理问题,而在未来就成为劳动立法问题。

   欧盟法律事务委员会动议,主张人工智能具有“工人”身份,并赋予其劳动权等“特定权利与义务”;韩国政府起草了《机器人伦理宪章》,其要点包括:保证人类能够控制机器人、保护机器人获得的数据、禁止人类违法使用机器人、防止人类虐待机器人,应该认识到:智能机器人本质是为机器,但亦有人的属性,对智能机器人的尊重就是对人类自身的尊重。可以预见,上述伦理规范将成为未来立法的组成部分。

   法律制度总是滞后的,但关于法律问题思考应该是前瞻的。面向智能革命时代,我们应在认识和分析现行法律困境的基础上,探索与科学文明相伴而生的制度文明,创制出有利于人工智能健康、有序发展的社会规范体系。

  

面向未来时代的制度构成:法律、政策与伦理

  

   法律制度的发展与变革,每一过程的路径选择和规则设计,其法律思维一般都是客观事实分析与主观价值判断的综合。就法律制度建设而言,如果总是基于技术及其效应的充分显现,以此形成以技术事实为基础的社会规范,那么法律制度的滞后现象将会十分严重,最终导致技术法律对技术“匡正”的失效和无力。

   “我们所体验到的那种无能为力并不是个人失败的标志,而是反映出我们的制度无能为力。我们需要重构我们曾经有过的这些制度,或者建立新的制度。”面向未来时代的制度构成,应以人工智能的技术发展与规制为主题,形成包含法律规则、政策规定和伦理规范的社会治理体系。关于理念、规范、体制与机制的制度设计,笔者拟提出如下构想:

   1.以安全为核心的多元价值目标

   人工智能法律的价值分析,源于法律理想与现实,应然与实然的对立。人工智能时代的法价值即是人类法律理想价值观的追求,是价值这一哲学范畴的法律化表现。法律的理想价值总是高于法律现实价值,可以为法律制度的演进提供目标指引和持续动力。

   人工智能法律既具有一般法价值的构成要素,又有着其特殊法的价值内容,从而形成自身的法价值体系。其中,“正义是社会制度的首要价值”,也是作为一般法的普适价值,其蕴含的人格正义、分配正义、秩序正义构成了人工智能法律构建的正当性基础。在最高法价值指引之下,人工智能法律还存在着专门法的特别价值,这主要是安全、创新和和谐。

   安全是人工智能时代的核心法价值。安全价值是对整个社会秩序稳定的维护。对此,法哲学家雷加森斯·西克斯言道:“如果法律秩序不代表一种安全的秩序,那么就不是一种法律” 。安全价值是许多法律部门共同追求的目标,且通过不同的制度或调整方法来实现。例如,刑法、行政法通过刑事责任或行政责任方式来实现社会秩序安全,民法通过侵权法来保护交易安全和财产秩序。人工智能作为未来时代技术尚在深入发展之中,但在当下已引发人们对其安全问题的普遍担忧。

   人工智能超越人类智能的可能性,人工智能产生危害后果的严重性,以及人工智能技术本身内在的不确定性,这些因素足以构成法律以及其他规范防止风险的必要性。关于风险规制的安全规范,包括人工智能产品的伦理规范、人工智能技术的应用规范、人工智能安全的监测规范等,都是相关法律制度设计和安排需要考量的问题。

   创新是人工智能法律的价值灵魂。在特定的时代背景下,特定的法律制度会包含若干不同的价值项,而且其各自的价值侧重点也有着不同。当代经济的发展着重依靠知识和信息的生产、分配和利用,创新业已成为知识经济时代的主要特征。面向人工智能革命,创新不仅反映了人与自然的关系,而且反映了人与人的关系、个人与社会的关系,成为一个具有普遍意义的关系范畴。创新价值体现在人工智能发展政策制定与立法活动之中,其主要制度设计是:

   (1)谋化国家发展战略。在整体性、全局性的政策层面,对人工智能技术和相关社会变革作出相应的战略部署;

   (2)制定产业促进与监管的政策法律。在立法和政策层面,推进智能驾驶系统、智能机器人、精确医疗、语言识别、人脑芯片等核心技术的研发和应用,同时明确准入规范,制定安全标准,完善配套设施,营造健康、有序的监管环境;

   (3)完善知识产权创新激励机制。通过权利保护、权利交易和权利限制等制度,促进技术创新和新兴产业发展。总得说来,国家通过战略指引、法律规范和政策安排,将创新这一行为上升为“规划理性”的法价值,体现了人在价值发现中的能动性干预和控制。

   和谐是人工智能时代的终极价值追求。所谓和谐发展,是一种配合适当、协调有序的理想动态,这是一种涵盖周延的目标系统,包括人的和谐、社会的和谐、自然的和谐,以及人与社会、自然的和平共存与进步。和谐价值实现的理想状态,即是人工智能社会的良性健康和有序。

   在智能机器人的发展过程中,和谐价值具有引导性功能。为保证人类社会的和谐稳定,对人工智能产品进行伦理设计、限制人工智能技术应用范围、控制人工智能的自主程度和智能水平等,都应以和谐价值作为指引方向和评价准则。

   2.以伦理为先导的社会规范调控体系

   人工智能时代的文明,需要相应的行为规范作为社会关系的调整器。就整体而言,文明要求社会对自身内部错综复杂的关系进行自觉的协调,以不断完善自身的组织和管理,达到各种社会关系的有序与和谐。

   从人类文明创始到现今人工智能时代开启,社会行为规范已然成为一种制度体系。社会规范调控体系或系统,是指在一定的国家、地区、领域内存在的,由一定的社会经济关系所决定的社会规范而构成的相互联系、相互制约的统一体。在社会规范体系中,法律与道德作为两种重要的调整手段,从不同方面、以不同方式、通过不同机制对社会生活的不同领域发挥不同的影响和作用。

   对于人工智能社会关系的调整,伦理规范具有一种先导性的作用。这是因为法律规范基于现实生活而生成,且立法过程繁琐,因而总是处于滞后境地;而伦理规范可以先行和预设,对已变化或可能变化的社会关系作出反映。

   在发达国家,对人工智能的伦理研究早于立法研究。近年来,欧洲机器人研究网络(EURON)发布《机器人伦理学路线图》,韩国工商能源部颁布《机器人伦理宪章》,日本组织专家团队起草《下一代机器人安全问题指引方针》,美国国家科学基金会和美国航天局设立专项基金对“机器人伦理学”进行研究。

   此外,一些行业组织、公司企业也在伦理规范方面强化人工智能专家的专业责任。例如日本人工智能学会内部设置了伦理委员会,谷歌设立了“人工智能研究伦理委员会”,旨在强调科研人员的社会责任,并对合理研发人工智能提供指导。

   概言之,伦理规范的调整功能非常独到且为重要,例如:对智能机器人预设道德准则,为人工智能产品本身进行伦理指引;规定人工智能技术研发及应用的道德标准,对科研人员进行伦理约束。上述伦理规范,为后续法治建设提供了重要法源,即在一定时候,伦理规范亦可转化为法律规范,实现道德的法律化。

   3.以技术和法律为主导的风险控制机制

   人工智能技术不仅是高技术,而且是高技术的核心,可称之为高技术核。智能技术的“核爆炸”,既对社会经济带来变革性的影响,也会产生技术性风险,即“人类在利用技术时违背技术自身规律而产生的社会风险”。人工智能时代的风险防范和治理,可采取技术控制与法律控制的综合治理机制。

   法律控制是风险治理机制的重要手段。立法者必须重视控制风险功能的法治化。例如,专利法具有激励科技创新的制度功能,其授权客体的扩充及其权益保护,即是激励人工智能发展机制的法律表现。与此同时,专利法也要注重权利客体的排除领域,以及禁止权利滥用,限制权利行使等制度规则的适用,限制和排除人工智能的潜在危害。此外,还应辅之于相关科技法律、法规,对人工智能的研发、使用和传播建立限制机制、禁止机制以及惩戒机制。

技术控制是风险治理机制的重要措施。技术规制表现为法律规范、政策规定和伦理规则等。风险社会理论指引下的技术规则有以下特点:风险规避的主要路径,是事先预防而不是事后补救(即从技术研究开始规制,以预防技术产生的负面效应或副作用);风险规避的基础范式,是从技术研发到应用过程的责任制度(包括社会道义责任、科学伦理责任和法责任);风险规避的重要措施,(点击此处阅读下一页)

本文责编:陈冬冬
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/105499.html
收藏