返回上一页 文章阅读 登录

季卫东:数据保护权的多维视角

更新时间:2021-11-01 10:04:47
作者: 季卫东 (进入专栏)  
其中最大的问题是把人分类并贴上标签,容易造成一个差别化、等级化的“打分社会”,助长某些权利上的歧视,甚至形成所谓“自动不平等”和“数字济贫院”的事态。[8]

  

   上述两种常见的现象说明,人工智能的算法公正以及数据伦理的确是当今法学正面临的重大课题。在人工智能治理方面,2016年构成一个重要的界标。对于从那时起国际社会形成相关原则和规则的主要动向,笔者曾经在一篇论文中做过如下概述。[9]2016年4月,欧洲议会法务委员会召开了关于机器人和人工智能的法律和伦理问题的听证会,并在5月公布了与机器人相关的民事法律规则的报告书草案。2017年2月欧洲议会通过《向欧洲委员会提出的关于涉及机器人民事法律规则的提案》,建议设立专门的欧盟机构、采纳智慧机器人登记制、明确严格的损害赔偿责任、保障知识产权等,要求欧洲委员会制定相关的欧盟法律。这个提案还建议确立机器人研发者的伦理行动规范,其中包括尊重基本人权、预防原则、包容性、问责、安全性、可追溯性、隐私权保护、效益最大化和危害最小化等内容。[10]2018年5月25日欧盟开始施行一般数据保护条例(GDPR),要求人工智能研发涉及个人信息处理时要通知本人,受到影响的个人有权获得解释。其中有些举措比美国更加严格,对违反该法规的企业采取重罚政策。这项法律对数据向其他国家的转移业务也生效。2018年12月欧盟委员会AI高级专家组发布了《人工智能开发和适用伦理指南(草案)》,以《欧盟基本权利宪章》为基准,力争形成值得信赖的、负责任并没有偏见的人工智能,为此提出了七条关键要求。欧盟人工智能伦理指南的七条关键要求是人的管理和监督、稳健性和安全性、隐私和数据管理、透明度、多样性和公平性以及非歧视性、社会和环境福祉、问责制。这个伦理指南将从2019年夏季开始进入试行,所有企业、政府部门以及社会团体都可以参加欧洲人工智能联盟(European AI Alliance),通过共同遵循伦理指南在数据、算法、技术等方面推进伙伴关系。笔者于本文中补充的新信息是,2019年4月欧盟高级专家组发布《可信任人工智能指南》,把合法性、伦理性、鲁棒性作为可信任人工智能的构成元素,并提出了根据基本原则、主要要求而制作的评估项目清单,2020年开始对GDPR的某些过时的内容进行重新审视并起草了新的法案。

  

   与欧盟几乎同步,美国政府从2016年5月开始正式研讨人工智能的法律、伦理以及政策等方面的问题,为决策进行准备。当年10月白宫发表了题为《为人工智能的未来做准备》的报告书,提出人工智能的相关系统必须可控、公开透明可理解、有效发挥功能、与人类的价值和愿望一致等原则。[11]与此同时,国家科学技术会议网络和信息技术研究开发小委员会还发表了关于运用联邦政府预算研究人工智能的方针《美国人工智能研究开发战略计划》,提出了副作用最小化的要求。[12]2019年6月,美国国家科学技术理事会发布了这项战略计划,特别强调要提高人工智能系统的公平、透明度以及问责制。然而,在立法方面,美国没有采取统一方案,由各州酌情自行其是,为立法的社会实验以及企业、行业的自治和创新留下了较大空间。由亚马逊、DeepMmd、谷歌、脸书、IBM、微软等巨型网络平台公司发起,欧美产业界在2016年9月还缔结了关于人工智能的伙伴关系,旨在构建一个研究和讨论人工智能技术改进和社会影响的开放性平台,并发表了关于确保社会责任、采取防护措施等八项信条。来自不同机构和学科的专家也按照人工智能“可接受、负责任”(Acceptable Intelligence with Responsibility)的理念结成伦理专题社群,进行关于失控风险的脚本分析并提出对策建议。

  

   日本总务省信息通讯政策研究所通过系列研讨会,在2016年10月制定了《人工智能开发指针方案(征求意见稿)》,经过讨论修改,在2017年7月正式公布《为国际讨论而作的人工智能开发指针方案》。日本方案的基本宗旨是:尽管人工智能的技术创新和互联网化有望给经济和社会生活带来各种各样的效益,但也存在黑箱化和失控的风险。人工智能是跨越国界互联互通的,因此相关的效益和风险也势必跨越国界产生连锁反应。在这个意义上,智网社会的治理不可能局限在一国范围内,而应该形成全球化的治理框架。为此,有必要通过开放式讨论在利益相关者中凝聚国际共识。在人工智能研发的初期阶段,通过立法来进行规制有可能导致创新活动的萎缩,因此对刚性规范的制定应持慎重态度,不妨更多地借助“软法”等非正式的有序化机制。[13]日本的人工智能开发指针方案提出了五大理念:(1)人通过与人工智能网络共生而享受其恩惠,并建立一个尊重人的尊严和个体自主性的“以人为本”的社会;(2)利益相关者应该对作为非约束性软法的指针及其最佳实践经验进行国际共享;(3)应该通过创新的、开放式的研发活动和公平竞争增进社会效益,在尊重学术自由等民主主义社会价值的同时防范风险,确保效益和风险的适当平衡;(4)坚持技术的中立性,注意不给开发者造成过度负担;(5)对指针方案的内容不断斟酌,根据需要灵活进行修改。[14]

  

   在中国,从2017年国务院颁布的《中国新一代人工智能发展规划》可以看出,关于数字化社会秩序构建的基本理念、主要方法、立法重点,有关表述都是非常清晰的。该规划指出有必要积极参与人工智能全球治理,加强机器人异化和安全监管等人工智能重大国际共性问题研究,深化在人工智能法律法规、国际规则等方面的国际合作,共同应对全球性挑战,并且在全球范围内优化配置创新资源。特别是该规划关于人工智能治理的九条原则,即共享互信原则、个体尊严原则、民主参与原则、国际合作原则、相机治理原则、公开透明原则、双重规制原则、追踪制裁原则、预防响应原则,都是与国际接轨的。[15]该规划也有一些中国特色,比如,第五条关于相机而动的治理,与网络社会的特征相吻合,也反映了中国传统治理方式的影响;又如,其中的双重规制原则,也体现了中国行政主导、综合治理的特色。2019年,国家新一代人工智能治理专业委员会制定了《新一代人工智能治理原则——发展负责任的人工智能》,明确提出了八条基本原则,即和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理。其中特别值得注意的是责任分担和共担的方式以及对敏捷治理的要求。[16]实际上,无论是数据治理,还是算法治理,都包括制度治理与技术治理这两种不同的方式或者层面。制度治理主要表现为法律、法规、标准、指南、政策以及伦理规则等,既有硬法又有软法。有必要指出,2019年世界人工智能大会法治论坛上提出的法治导则,把算法纳入专利保护的范围,这体现了中国制度治理的重要成果;另外,关于人工智能侵权的责任,强调根据过错程度进行分担,也具有鲜明的中国特色。技术治理则主要表现为人工智能操作中的技术细则以及系统日志、记录软硬件的情况、监督数据的收集等,还包括同态加密、安全多方计算、联邦学习、可信计算等隐私增强技术(PETs)的采用。制度治理和技术治理的这种耦合是理解人工智能治理规则体系的重要视角。

  

   综上所述,2016年以后的国际社会,就人工智能治理以及数字权利保护达成的基本共识如下。(1)对国际通用的指针、标准等采取合作态度。其包括确保数据空间互联互通,必须共有相关信息,参照国际标准和规格进行人工智能系统及算法的设计,实现数据格式的标准化,公开应用程序编程接口以及协议、揭示知识产权的特许合同条件等。(2)实现技术的中立性以及透明性。为此需要实现人工智能系统输入和输出的检验可能性,对演算结果要履行说明义务。(3)实现人工智能的可控性。应该由其他人工智能系统进行监视和警告,实现技术与技术的制衡,并为人工智能系统的停止、网络的切断和修理预先做好充分的准备。(4)优先保护人的安全。算法设计应该坚持的价值优先顺位为生命、身体、财产。对于数据和算法的安全性要对利用者和利益相关者履行充分说明的义务。这种共识也反映于2019年5月公布的WECD关于人工智能的政府间政策指导方针》和同年6月公布的《G20人工智能原则》之中,其倡导以人类为中心、以负责任的态度开发人工智能和培养数字生态系统。新兴权利的形成和发展正是以这样的共识为前提条件。如果把人工智能治理分为数据治理、算法治理以及应用系统治理这三个不同层面,来具体考察国际社会已经达成的共识,还可以发现其中存在不同的原则和规制,或者各有其重点内容。在数据治理层面,特别强调审慎处理个人敏感信息,侧重保护隐私以及个人信息安全,并要求消除数据噪音、提高其质量和规格化程度。在算法治理层面,以透明性、准确性、可靠性、可解释性、可验证性、可追溯性作为衡量的标准。在应用系统治理层面,追求向善性和无偏性等目标。仔细推敲又可以发现,在人工智能治理方面似乎若隐若现地存在欧盟和美国这两种不同的模式。欧盟始终侧重统一立法,特别强调数据安全和算法公正,并倾向于事先规制。例如, GDPR严格限制数据跨境流转,降低数据跨境传输的风险,并且要求企业履行事前审批手续。与此形成对照的是美国,其采取逐步立法的渐进路线,针对人工智能典型应用场景分别制定特殊法规,更强调数字经济的开放性和竞争性,鼓励数据有条件的自由流通,倾向于事后救济,例如建立数据泄密通知机制。[17]对不同层次、不同模式的问题状况进行梳理,有利于新兴权利群的体系化,特别是从宪法与民法、基本权利与一般权利、道德与商务等不同维度进行分类。

  

   三、欧盟关于隐私和数据安全的宪法视角和司法救济

   在现代启蒙精神的影响下,欧洲各国历来重视人权和公民基本权利的保障。关于数据和算法的有关原则和规则,也以《欧洲人权公约》(1953年生效)、《欧盟基本权利宪章》(2009年生效)作为高阶法律根据,特别是后者明确把个人数据保护纳入宪法规范。从1995年的数据保护指令到2018年的GDPR,再到2020年11月提上议事日程的数据治理条例建议稿、数字市场法草案以及数字服务法草案,始终从宪法规范的视角来强调信息自决和个人隐私保护的基本权利,对数据画像和自动化决策采取断然拒绝的态度。与此同时,欧盟也非常重视数据主权问题。[18]众所周知,中国在人工智能研发和数字经济转型方面进展非常迅猛,以致让欧盟不得不采取“高筑墙”的对策,把防范美国和中国的数字优势地位作为制定法律的基本指针。这就势必更进一步强调信息安全和算法公正,通过法律和审批程序严格限制数据跨境流转,使人工智能治理的相关制度宛如一座坚固的城堡。

  

2018年5月25日起实施的GDPR号称人工智能时代的人权宣言。该法以个人尊严和基本权利保障为宗旨,直接约束各加盟国的立法,并对欧盟各国的数据向其他国家的转移业务也产生效力。GDPR还规定了一些新型的基本权利,例如,第5条强调限定数据收集和处理的目的、在一定目的范围内最大限度地减少对数据的处理和保存、让数据保持完整、正确、更新以及匿名的状态(信息安全保障权);第13条第2款则从另一个角度强调了透明性原则(信息公开请求权),要求数据管理者必须对数据权利主体履行信息公开的义务,且所提供的信息必须能为数据权利主体所理解。GDPR第20条还特别规定个人享有自我数据便携式获取权;第21条承认数据主体的异议权,如果数据管理者不能出示正当性根据,必须中止电脑化处理;第22条宣布数据主体享有不服从那种仅根据人工智能而自动化做出的决定的权利,并且明确指出数据管理者不得通过假装有人介入的方式来规避第22条的约束。这些权利条款分别涉及数据获取、数据权属、数据保护、信息隐私、伦理问题等不同的法律维度。有关权利的保障和具体事项的权衡主要依赖各国法院以及欧盟普通法院、欧洲法院、欧洲人权法院。(点击此处阅读下一页)


爱思想关键词小程序
本文责编:陈冬冬
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/129353.html
收藏