返回上一页 文章阅读 登录

龙卫球:人工智能立法的“技术—社会+经济”范式——基于引领法律与科技新型关系的视角

更新时间:2020-06-11 23:35:50
作者: 龙卫球 (进入专栏)  
限于篇幅,这里不予赘述。

   上面这些社会问题,还不是人工智能科技最复杂的消极问题。人工智能新科技与其他许多科技有一个很不同的特点,就是它是一种以认知能力为基础的技术,为此是具有与人相通的特点,因此引发极强的伦理关切。在应用面向上说,这种与人的相通性可能带来不可估量的潜在效用,能够替代人类发挥智慧作用,可以想象,从经济增进上来说功效可期,厚利在望。但是,它以与人相通性,以及以人机互动或者对人的替代作为效用设计的特点,也可能导致对人的混淆甚至取代的后果。由此,引发令人困惑的人与人造物的关系难题,导致人自身存在的危机感,这是前所未有的问题。第四次工业革命的新科技之中,能与人工智能科技对人自身形成威胁近似的,还有生物科技、神经科技。以生物科技为例,生物技术经过过去20年的发展,在数字技术和新材料的支持下,基因组、基因工程、诊断学、制药开发等方面都取得了质的飞跃,出现了能够改变生物系统的技术或生物设计技术,在DNA测序、DNA合成等DNA操纵下,转基因植物技术、干细胞技术、克隆技术、胚胎技术、基因治理技术、基因编程技术等可谓层出不穷,这些对于生物工程、精密医学、农业、环境、人体健康等显然具有极大的应用价值,但是它们同时带来了对于人本的威胁,因为极有可能改变人之为人的原样,所以也引发了极为深刻的人本主义观念下的伦理和安全危机[21](P187)。神经科技,也有类似之忧[21](P199)。这个伦理性问题不好处理,值得加强研究,要尽快拿出可以确信的兼顾伦理设计的方案来。我们固然不能过于保守地处理人工智能带来的“人的危机”问题,但是引入必要的监管设计应该不可避免。遗憾的是,目前各国和有关国际组织虽然在倡导一些人工智能伦理标准,包括所谓机器人安全原则,但还没有形成总括性的行之有效的全球标准。

   人工智能科技在“技术—经济”模式下可能形成的负效应,可以归结为人工智能的科技社会风险。科技如果仅在经济主义的刺激下,作为改善物质需求发展和应用,脱离对社会价值的考量,那就必定会使技术与社会严重脱节,导致严重的社会风险,广义上包括对人自身的风险。自近代以来,科技风险概念就以特殊的形态不断升级,这都与所谓科技现代化采取单边经济主义相关。风险社会理论家贝克称之为“工业社会的自反性”或“自反性现代化”。即,“生产力在现代化进程中的指数式增长,使风险和潜在自我威胁的释放达到了前所未有的程度”“在工业社会中,财富生产的‘逻辑’支配风险生产的‘逻辑’”“从现代化进程自反性角度来看,生产力丧失了其清白无辜的面目。技术—经济‘进步’带来的力量,日益为风险生产的阴影所笼罩。”[7](P7)科技社会风险演进到今天,早已不再是从前的潜在的副作用,而是达到极端泛滥或突变的程度;这种风险也显然不同于19世纪20世纪上半叶的工厂或职业危机,而是成为对于自然界和人类自身包括生命重大威胁,且成为跨越国界和族群的全球性危害[7](P3,7)。

   人工智能科技的强社会面相,也体现在其积极方面的协同需要。人工智能无论从研发还是应用,都包含了巨大的共享和协同需求,同时也蕴含了巨大的共享和协同价值,还暗含新时代的普惠追求。因此,人工智能无论是其自身的研发、应用,还是对于其他领域的渗透,都高度依赖于协同性的资源配置安排或者运行合作。人工智能开发和应用需要的协同,包括基础方面的协同,例如数据协同、平台协同、管理协同,也包括具体应用功能和主体的协同,还包括人机协同等等。这些甚至要落到具体行为、管理、权利、义务、责任的协同上来,导致人工智能相关的权力、职责、权利、义务、责任等不会简单地像既有范式那样去设计,而是需要基于协同的要求做出必要合理的变化。仅以数据资源为例,人工智能的开发和应用,离不开大数据集聚和及时更新,数据越丰富越动态就越好,因此有必要通过设计为人工智能开发者创造合理获取数据的机会,除了尽可能开放可公开资源之外,也需要为人工智能开发者提供在具体场景中动态获取必要数据的便利。但是这些会与数据管理、数据权属、个人信息保护等既有法律秩序产生冲突,因此需要进行巧妙的协同设计,实现双赢,以便最终使得协同成为可能并且圆满。目前,存在一种因关注共享而完全否认数据权属化的观点,笔者认为这种观点对于共享设计架构有简单化嫌疑,难以提供合理的主体间数据合作的根源和动力[27](P1-12)。基于人工智能的信任机制也很重要,应当配合协同需要完善相应的信任机制。马克·格兰诺维特在《社会与经济:信任、权力和制度》一书中提到,个人行为虽然存在自利和受规则与价值体系影响之间的微妙关系,但信任和权力也会潜移默化地塑造个人的心智结构,所以信任也是个人行为非常重要的社会因素[28](P91-140)。人工智能的信任机制体现在许多方面,但往往是具体场景化的,例如在人工智能决策领域,理性的数据驱动,决策过程的透明、可理解以及决策可问责等,大概都具有增进信任的功效。目前人工智能自动驾驶汽车行业比较注重在关键点上、如隐私问题,通过宣示自律措施确立信任机制。

   总之,人工智能科技以一种强社会面相,展示了前所未有的社会规范需求性,这既是科技经济主义发展到今天,导致科技应用势必陷入极大风险的警示结果,也是人工智能科技自身发展到现阶段,需要更加特殊的社会协作和信任机制加以支持的要求使然。可见,人工智能科技立法作为科技立法发展到当下的特殊新领域,其转型势在必行。由上述论证逻辑可知,应当超越既有科技立法的“技术—经济”范式,而以兼顾社会的新面相,跨入“经济—社会+经济”的新阶段。

   (二)人工智能立法“技术—社会+经济”新范式的开展

   人工智能立法的新范式,以技术社会性的兼顾,从架构上总体上需要坚持两重性。一方面,仍然致力促进人工智能科技的经济意义。人类在很长一个时期之内,需要通过科技提升自己的经济能力,这本身并没有错。只要在我们的世界还存在物质短缺或财富增长的需求,那么科技的经济效应就值得我们追求。我们今天还没有到可以摒弃科技经济效用的时候,只是不宜取经济主义而单兵冒进,而是应予制度创新,兼顾必要的社会性以有所节制。何况,目前阶段,人工智能科技只是形成了巨大的潜力,还有重要的技术突破和扩展时期,从经济意义特别是国家处于机遇期需要提升竞争力上说,还存在一个极具关键的需要鼓励和引导期间。当然,不同国家或不同阶段存在差异性,导致经济需求的迫切程度、正当化程度会有所不同。例如,发达国家经历二三百年工业化的经济主义追求之后,经济增长进入了一个新的阶段,而发展中国家却仍然有不少还挣扎在贫困线上[7](P5)。这恐怕也是国际社会要就科技事项进行平衡规范,难以取得合作共识的原因之一。另一方面,必须引入和提升人工智能科技社会规范。这是极为急迫而重要的。对应社会积极和消极的规范需求,体现为两大方面。一是积极的人工智能科技社会规范,重点是其合理研发和应用需要的社会协作、信任的规范体系建设。二是消极的人工智能科技社会规范,重点是如何防范和应对前述人工智能可能带来的社会问题。这一部分其实就是人工智能科技及社会风险立法范畴。通过加强并且系统化防范和治理的方式,达成风险可控。按照贝克的说法,就是要将过去稀缺社会的财富分配逻辑,向发达现代性的风险分配逻辑转变,或者说从财富生产支配风险生产的逻辑,转变为风险控制支配财富生产的逻辑[7](P3-48)。

   人工智能立法新范式的两重性布局,应以全新的价值观和更加合理的原则体系作为基础。鉴于人工智能的巨大科技风险,特别是基于其具有与人相通的认知能力,对于人本身构成了混淆或者替代威胁。一种正在成为主流的声音认为,关于人工智能立法的价值基础,需要提升一个高度,即应从最基本的人本主义来思考,以人的基本安全为底线,提出人与人工智能这种特殊人造物(也可以是打引号的“人造人”)的最低关系准则。学者和机构将之称为人工智能和机器人应用的基本伦理框架,作为人工智能规范和政策的最高指导。当然,也有还在观望之中的[29](P25)。坚持人的价值观的重点是,坚持人的价值的原初本体性,坚持人工智能的价值与人的价值一致性,在二者发生冲突时以人的价值为优先。《联合国世界人权宣言》和一系列相关文本宣示的,是人的价值的重要国际规范来源,但人的价值性应该不限于此。这也是第四次工业革命的新价值观。施瓦布研究第四次工业革命的实践时,呼吁要“确保对第四次工业革命由人类主导、以人文本。技术的开发必须尊重人类价值观本身,而不是只考虑经济价值。此外,以人为本意味着赋能于人,而不是支配人类的命运”[21](P11,32-55)。

   虽然在人工智能立法的价值体系中,人的价值观居于最高位阶,但还存在对于其他功能性或类型化价值追求。比如,从人工智能作为科技自身角度的促进科技创新与竞争力的价值,从经济角度的提升生产力和经济效率的价值,从社会意义角度的维护社会基本公平与安全的价值等等。这些价值之间存在平衡关系,发生冲突时,社会价值应该具有优先适用性。但是,这些功能性价值,最终要服从于居于上位的人的价值,后者具有终极性、本位性和优先性。另外,仅从人工智能的社会价值角度,笔者认为,广义上至少包括伦理、安全、公平、包容四个方面,它们之间存在交叉重叠。其中,伦理既包括关于人的尊严,也包括一般社会伦理。目前,除了关注人的混淆和替代之外,重点关注的还有使用人工智能导致过度监控问题、全景智能问题等。安全,既包括个人及人类的安全,也包括社会安全。公平,指社会不同人之间出现的机会或利益极差的情况;包容,则指平等、开放对待别人,歧视是其重要反例[30]。此外,我国《新一代人工智能发展规划》强调的社会价值,还包括人工智能对于社会建设的功能在内。

   人工智能立法的上述价值观,应当通过一系列原则在人工智能的内在架构中予以进一步贯彻。这些原则成为全部规则设计和体系解释的原理基础。基于上述价值的逻辑展开,最少可以包括:其一,坚持维护人的尊严的原则。这是由坚持人的价值性推论出来的,毫无疑问是最主要的原则。其二,坚持技术创新、经济效率和社会保护一体化原则。人工智能立法应该做到三个功能价值的协调。目前的重点是矫正既往科技立法的惯习,重点对前两项功能有所限制,以彰显必要的社会保护。其三,坚持科技风险和监管一体化原则,或者叫科技风险和安全防范一体化原则。越是风险系数高的科技开发和应用,越应当增加风险的监管强度。如果应用于权力和责任更加重要的职位或情形,就应该引入更严格的监管甚至控制。鉴于人工智能存在较高风险性,今后还会发展为极高,因此有必要建立与其风险级别相应的确保其安全可靠的监管体系,包括引入与风险相适应的监管系统和方法。比如说,划分不同主体或产品风险等级,进行相应资质管理;引入风险监测体系,进行相应的监测、预警或应急管理;建立内外结合互动的安全管理体系;引入利益相关者决策和反映程序等等。其四,坚持行为治理和技术治理协同的原则。人工智能作为一种复杂技术,其治理与对于一般的行为治理不同,存在技术专业化的特殊性,从科学的角度来说,除了通常法律的行为治理模式,应当针对技术架构的特点引入技术治理。例如,为了达到更好地贯彻价值的效果,应当在人工智能设计环节就为技术赋予价值观,把必要的人本要求、社会需要预先嵌入进去,使其成为“价值—技术”“社会—技术”系统[21](P11,42-48)。现在我们见到的“隐私设计保护”就有这种妙用。在重大决策、执法(警务机器人)或者致命效应(自动化致命武器)的人工智能系统设计中,安全技术同步设计、价值和社会功能预先嵌入设计、运行与风险评估会同设计,都是十分必要的。

最后,从立法范畴看,人工智能立法作为科技立法的特别领域法,应当注意一般与具体的结合,还要注意自身与其他法律的交叉。前者,体现为人工智能立法存在一般规范与具体规范的合理分置问题。人工智能一般法,通常包括人工智能一般市场规范、一般风险规范以及一般政策规范的内容;而人工智能特别法,目前存在不同划分方法,现在的一种趋势是,(点击此处阅读下一页)


爱思想关键词小程序
本文责编:陈冬冬
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/121679.html
文章来源:《武汉大学学报(哲学社会科学版)》2020年第1期
收藏