返回上一页 文章阅读 登录

季卫东:数据、隐私以及人工智能时代的宪法创新

更新时间:2020-07-15 13:21:10
作者: 季卫东 (进入专栏)  

  

   01 序言:算法独裁与数字人权的对峙

   在当今社会,人工智能的应用范围已经越来越广泛,显著提高了生产的效率和生活的品质。当然这种便利性也是有代价的。从现代宪法学的角度来看,这种代价主要是牺牲隐私。把海量数据、图像等个体信息提供给计算机学习和处理,以便对行为进行预测和模仿,因而人工智能系统势必大量吞吐和咀嚼隐私。但隐私正是个人自由的基础。也就是说,高度进化的电子计算机有可能在相当程度上以算法独裁(Algocracy, John Danaher的表述)的方式限制甚至剥夺个人的自由,会以效率、便利、娱乐等不同诱因促使人们不断放弃既有的基本权利。这种代价也包括会思考的机器将大幅度取代人类的行为、冒犯人格的尊严,人机混合实际上正在招致人的动物化、机械化,并在根本规范层面引起了关于人道、正义以及伦理的一系列两难问题。另外,这种代价还包括算法黑箱化导致问责机制的削弱、蜕变以及瓦解,使限制权力的现代法治精神难以落实。

   据报道,到2017年底为止我国城市设置的摄像头达到1亿7000万个,其后还将大幅度增加。由于不像欧美那样对人脸识别技术的严格限制,也没有使用图像数据必须经过本人许可的程序,中国根据海量图像数据进行人工智能研究的绩效的确非常突出,已经达到世界顶级水平。这种独特的条件使人工智能系统的深度学习能力超强,并能把有关成果迅速应用于经济和社会治理的各个方面,然而也加剧了算法黑箱化的程度。如果我们希望避免粗暴的数据攫取和算法独裁,希望按照“以人为本”的原则发展一种可信赖、可说明的人工智能,希望防止公权力以智能化决定的名义转嫁或推卸责任的流弊,那就必须注重与人工智能以及物联网、大数据相关的宪法学研究,认真探索在高科技时代切实保障公民基本权利、特别是个人信息安全和隐私权的方式和举措。

   2019年6月陌陌网络科技公司推出的智能软件“ZAO-逢脸造戏”,通过一张正面照就可以制作各种热门表情包和经典电影片段,曾经轰动一时。但在用户协议中有一个格式条款要求消费者把肖像权完全免费、不可撤销、永久地授予该公司,并允许该公司及关联公司在全球范围内进行网络信息传播、转授权以及再许可,引起媒体一片批评并导致工信部在9月采取监管行动。同年10月,浙江理工大学一位副教授对杭州野生动物世界强行采用人脸识别技术进行检票提起诉讼,以维护个人信息安全以及年卡合约的效力。上述现象说明,中国社会对任意收集和使用个人图像数据的风险意识提高了,人工智能时代的宪法权利正在成为非常突出的社会问题,因而我们有理由把2019年视为中国“数字人权元年”。

   02 人工智能对现代宪法体制的挑战

   1  大数据与人工智能的正比例关系

   马云曾经把数据比喻为二十一世纪的“石油”,即具有最重要经济和社会价值的生产资料。要想从海量数据中搜寻出有用的信息、甄别和防控风险、实现数据内在的价值,就必须改进网络架构、提高数据处理能力,这就需要强大的计算机信息处理系统。因此,第四次产业革命势必以人工智能为基本特征,造成一个万物互联互通、靠数据驱动、智慧网络化的社会。一般而言,人工智能是以数据为养料而成长的技术。离开海量数据,人工智能就无法发展和提高预测能力。所以大数据与人工智能的发展之间存在显著的正比例关系:数据的规模越大、质量越好,往往人工智能的功能就越强、预测的精确度也就越高。这种关系在预测犯罪或者开发有效的疫苗和药品等应用场景表现得尤其清楚。

   现阶段的中国,人口规模(约十四亿)、网民人数(约八亿)以及每天产生的数据量(约900兆字节)均为世界第一。由于国情和社会基础设施方面的某些特征,中国的互联网金融、网上购物、外卖快递、移动支付、“一卡通”系统非常普及,为数据的收集和应用提供了各种各样必要的场景和充分的条件。根据2018年的统计,中国大数据产业相关人才的规模全球第一,占比59.5%,比第二位的美国高出37.1个百分点。更值得留意的是,中国数据的公有化程度极高,大约70%以上的优质数据资源由国家掌控。这种状况有利于打破各种局部疆界充分调动数据资源来发展产业经济,也势必促进人工智能在国家治理和法律制度运作方面的广泛应用,但也把个人数据安全和隐私保护问题以更加尖锐的形式呈现出来。

   2  基于评分系统的身份原理与警察国家

   例如作为第三方征信机构的芝麻信用,利用海量的各种数据(特别是阿里巴巴的电商交易数据和蚂蚁金服的互联网金融数据,也包括政府数据)构成个人数字化行为履历,分别从身份特质、行为偏好、履约能力、信用历史、交友关系等不同维度进行信用评分。在这里,950分为满分,750分以上为信用优良,550分以下(底限是350分)为缺乏信用。信用优良的用户可以享受很多优惠,如租车、住酒店不必交押金,网购可以先试后买,办理某些国家的旅游签证签证不必办理存款证明,租房可以零押金、先入住后付款,看病可以先诊疗后付费,还有信用婚恋等等。据报道,这个征信系统的登记人数已经达到两亿,到2020年还将落实全民义务登记社会信用系统的计划,形成空前规模的“评分社会”或者说等级化的“排序社会”。最高人民法院已经与芝麻信用签署合作协议,形成了一种联合惩戒失信行为的机制——把判决不执行等违法行为纳入信用评价范围,通过各种应用平台限制失信被执行人的各种经济活动和生活方式,借助大数据强化债务履行和判决执行。

   众所周知,随着改革开放的进展,中国的财产关系日益复杂化;由于社会信用体系不太完备,从1990年代开始债权回收和判决执行的困难就变得越来越突出。在这样的背景下,最高人民法院借助大数据、人工智能以及芝麻信用的征信资料来追查和惩戒被执行人的失信行为当然是必要的。但不可忽视的是,在官民一体化的联合惩戒机制形成和加强之后,如果没有适当的规范制约和数据安全保障,中国就会以评分系统为媒介迅速转变成史无前例的“监视社会”,个人的权利很容易受到这样或者那样的侵犯。例如芝麻信用的评分和失信记录会作为数字化档案保存五年,对家庭生活的各方面,包括就学、就业、晋升、入保等产生深远的、复杂的负面影响。其结果,可能会使得每个公民都有一个由大数据和人工智能构成的数字人格如影随形,在不知不觉中影响其命运;可能会使在现代化过程中被否定的身份原理在数字人格的基础上重新复活,事实上把每个公民作为“网络人”分为三六九等;可能会在事实上使公民失去悔过自新的机会(为此《欧盟通用数据保护条例》规定了个人信息删除权、被遗忘权作为救济手段),导致社会的阶层之间更加缺乏流动性,特别是造成底层固化、形成“虚拟贫民窟”;可能会按照某种分类法或群体特征给公民个人贴上某种特定的标签,造成在所谓“新集体主义”框架内的身份原理和算法歧视。例如美国有的人工智能系统把黑人等同于大猩猩、对亚裔族群在教育方面实行价格歧视,等等。

   物联网、大数据以及人工智能的“铁三角”,在某些场合还可能剥夺公民对个人信息的自我处分权(隐私权)、人格尊严以及法律面前平等的权利。例如常见的电商和网络平外把个人消费信息作为学习数据使用,分析行为样式并发布对标广告,这是否已经构成对隐私权的侵犯是需要认真考虑的。特别是遗传信息包含那些与生俱来的特性,一旦由人工智能进行解读和外泄就很容易影响个人入学、就业以及加入商业保险,大幅度减少某些公民的人生机遇和选择空间。尤其是保险制度本来就是基于不利结果发生的偶然性而形成的互助机制,如果人工智能通过各种数据能够准确计算和预测特定个人未来的风险,就势必要把入保申请者分成不同类型进行差异化处理,导致人与人之间的不平等待遇,有些公民可能遭受歧视、被排除在外,这就势必从根本上动摇保险制度通过偶然性分散风险的逻辑基础。在一定意义上也可以说,如果在制度层面容许那些基于来自父母遗传信息的差别,其实就是在向封建时代的血统观、身份原理倒退。实际上,现代宪法的根本原则是维护公民的自由和平等,绝不允许把个人自己无法选择、无法纠正的事由作为不平等待遇的依据。

   3  现代宪法体制的应对举措及其困境

   鉴于上述问题在各国发展的趋势,欧盟通用数据保护条例(2018年5月25日实施,简称GDPR)从维护现代宪法体制的立场出发,特别强调了对个人尊严和公民基本权利的保障,被誉为人工智能时代的新人权宣言。这个条例能直接约束各加盟国的立法,具有根本规范的属性,同时对欧盟各国向其他国家转移数据的业务也能发挥约束效力。为了防止上述侵犯个人数据和隐私、个体尊严以及机会平等性的流弊,欧盟GDPR第21条承认个人享有对基于大数据的人工智能档案或者数字行为履历提出异议的权利(反对权),如果数据管理者不能出示充分的正当性根据,必须中止电脑化处理。第22条还承认数据主体享有不服从那种仅根据人工智能而自动化做出的决定的权利,即公民享有对人工智能纯自动化决定的抵抗权,要求必须有人介入和监控计算机的信息处理。为了防止这种公民抵抗权被化解,GDPR明确指出数据管理者不得通过假装有人介入的方式来规避第22条的约束,确保人工智能不能单独地、自动化地做出决定。该条例第13条第2款还特别强调了透明性原则,要求数据管理者必须对数据主体履行信息公开的义务,并且所提供的信息、程序、规格、算法都必须能为主体所理解,是可以清楚说明的。

   但是,不得不承认,欧盟通用数据保护条例第13条第2款和第22条在实施中会碰到一些前所未有的难题。规定必须由人介入和监控计算机的运作,其宗旨显然是要确保人工智能的可控性。然而信息处理系统越复杂就越容易出现操作的失误,当系统运作速度极快时人也很难对情况进行认识、预测以及掌握。何况系统与系统之间会产生目的冲突和互动,在存在机器学习甚至深度学习的情况下,不同人工智能系统之间的互动关系势必极其复杂而变幻莫测。而且机器学习的效果越精准、深度学习的功能越强大,算法的涵义就会变得越来越难以理解和说明。例如2017年5月中国最高段位的围棋选手柯洁与AlphaGo对弈以零比三失利,后者留有五十份自我对战棋谱让所有专业棋手都觉得不可思议,从专业知识和经验的角度无法参透人工智能在机器学习之后根据概率进行这种貌似“臭棋”走法的缘由。但正是这些出其不意攻其无备的走法导致AlphaGo大获全胜。这正是人工智能算法可能变得无法理解和无法说明的一个典型例证。在这种情况下,人对人工智能系统运作的介入和监控究竟有多少意义呢?因此,在自然人无能为力的地方,只好以人工智能来监控人工智能,通过不同的技术进行互相制衡也许是解决上述难题的一条思路。

在无法理解和无法说明的场合,算法是黑箱化的。这样的算法黑箱化,实际上也使人工智能具有了不受约束的权力性,使在现代民主法治国家具有关键意义的问责机制已经名存实亡。立法机构的决定、司法机构的判断、行政机构的具体处分行为都需要给出明确的理由,以便据此防止主观任意性,给相对人以申诉和复议的机会。如果人工智能进行的预测、提供的结论无法说明其理由,就无异于用“莫须有”的名义来做出决定,或者进行案件审理和制裁,且无从追究决定者是对还是错的法律责任。可想而知,欧盟通用数据保护条例明确规定不能让人工智能独自进行自动化决定的主要原因就在这里。但是,随着人工智能在国家治理和法律制度运行中广泛渗透以及算法难以理解和说明,在很多应用场景下人们其实很难有效监控人工智能;相反,人工智能倒很容易成为人们转嫁决策风险、逃避问责的一种重要的手段。毋庸讳言,在中国的智慧法院建设过程中已经或多或少出现了这样的偏颇。另一方面,应用人工智能对大数据进行分析和学习,可以充分掌握社会心理和舆情的变化,对不同群体以及个人的行为进行精准的预测,这就会使国家对社会的监控能力和支配能力大幅度提高。在这种状况下如果不能相应地提高民主问责的水准,(点击此处阅读下一页)

本文责编:frank
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/122106.html
文章来源:《南大法学》2020年1月刊
收藏