单勇:全景式数据监控犯罪技术治理的形成与反思

选择字号:   本文共阅读 605 次 更新时间:2019-12-01 17:50

进入专题: 数据监控犯罪技术  

单勇  

当前,以全景式数据监控为特征的犯罪之技术治理崛起,技术治理对秩序唯美主义的过度追求使个人变得更加透明,并加剧了“数字利维坦”和个体之间的“纵向数字鸿沟”。在国家主导的技术治理框架中,相对于科技企业与政府的密切合作,个人参与技术治理甚为薄弱,这种社会参与的非均衡性在本质上是一种基于权利危机的数字不平等。为促进民众对技术治理的实质参与,应回归信息技术的赋权功能,尊重和保障个人数据权利,遵循法治之道制衡数据监控的权力运行,以人工智能伦理指引数据法制定,对具体的数据权利进行法律确认,通过数据权利的法律保障搭建跨越非均衡性的法律阶梯。

在“互联网—大数据—人工智能”三浪叠加下,信息技术成为推动犯罪治理创新的强劲动力。图像识别、视频监控、语音监测、行为预测、风险感知、人群画像、信息整合等蔚为大观的应用实践催生出全景式数据监控的技术治理模式。“社会的发展塑造了技术,但也被技术所塑造。”技术治理在极大地提升治理主体的社会能见度、风险感知灵敏度和预警预防精确度同时,也在潜移默化中形塑出数据控制型的社会结构。在数据控制型社会,“数字利维坦”或“技术利维坦”的生成几乎不可避免,“数字利维坦”与普通个体之间的“数字鸿沟”成为亟待深思的理论焦点。


一、技术治理扩张加剧“纵向数字鸿沟”


在传统意义上,“数字鸿沟”通常指信息技术在使用者和未使用者之间的社会分层,描述了“信息通信技术在普及和使用中的不平衡现象,这种不平衡既体现在不同国家之间,也体现在同一个国家内部的不同区域、不同人群中”。技术发展的不平衡可分为一级数字鸿沟和二级数字鸿沟:一级数字鸿沟探讨是否拥有家庭电脑及互联网之间的接入沟;随着互联网逐渐普及,研究的重心转移到不同群体之间互联网使用行为、技能与目的的差距,即二级数字鸿沟。从结构上看,上述“数字鸿沟”是不同群体或区域之间的“横向数字鸿沟”,而本文研讨的是在技术治理中数字利维坦与普通个体之间的“纵向数字鸿沟”。

在信息社会之前,政府与普通个体之间的纵向结构“纵向数字鸿沟”长久存在,政府通过科层制治理结构掌握社情民意,建立系统性的数据库和种类齐全的档案制度,依据数据、信息提炼治国理政的知识和智慧。相对普通个体,政府具备天然的信息优势。进入信息时代,纵向信息优势在某些领域被缩小(如社会事件的网络传播),而在更多的领域则被悄无声息地拉大(如“说服计算”的流行)。

信息技术大爆发推动了新一轮的社会治理革命,催生出犯罪的技术治理模式,基于大数据技术的数据监控和分析成为技术治理的主流策略。技术治理经历了从分散式创新到连点成线式的系统性优化、整合式重构的发展进程,形塑出整体性的技术治理架构。这种治理架构以总体性的“政务云”为技术支撑,遵循“数据集成—风险预警—决策支持—指挥调度—共治服务”的平台治理流程,在平台集成运用上百种具体的智能治理系统。在数据输入端,通过110警情中心的吸纳、网格管理员的上传、物联网传感器的感知,与犯罪治理有关的各类信息涓涓细流般汇入治理平台;在数据分析环节,平台中的各种智能治理系统依靠代码、算法、模型对信息进行挖掘、清洗、评估,从相关性分析中把握犯罪规律;在数据输出端,依据数据分析为具体的犯罪打击、预测、预防提供科学依据。技术治理由此催生出一种致力于整体性治理、趋向中心化的智能机器系统,治理手段的技术化和治理体系的算法化转向共同推动治理主体的机器化重构。

这种机器化重构标志着“数字利维坦”或“技术利维坦”的生成。“技术利维坦可理解为国家利维坦在人工智能时代的新形式,它以更加隐秘、牢固的方式体现国家控制能力,国家可利用人工智能技术的价值理性和工具理性编织新型的权力网络,国家意志通过算法制定得以展现,以此加强监控能力和社会管理能力。”相比此前国家利维坦与个体之间的数字鸿沟,“技术利维坦”无疑大大加剧了纵向数字鸿沟,形成了“透明的个人与幽暗的数据掌控者”的社会分层。技术治理加剧“纵向数字鸿沟”的表现如下:

从技术社会的掌控看,治理主体的机器化巩固了趋于中心化的整体性治理架构。“大数据虽然散布在整个数字空间,从理论上讲任何人都可以对这些数据加以分析和利用,但实际只有政府和大型科技企业才有资源、技术和能力去利用它们。大数据技术的发展将使政府变得越来越不透明,甚至连它不透明这个事实都变得不透明。”国家持续投入社会治理、犯罪治理的智能基础设施建设,各种资源汇聚于智能机器系统,治理主体的智能机器化趋势势不可挡。政府和科技企业组织最优秀的程序员编写各种程序、处理各类数据、设计各种算法,以技术之网将社会生活不断编程,持续扩大智能机器覆盖的广度、深度、精度。数据的集中往往意味着权力的集中,技术治理的扩张给个人权利保障带来新的挑战,技术利维坦所搭建的全景式监控社会日渐成型,对个体被监控及个人隐私被威胁的争议愈演愈烈。技术利维坦加剧了社会分层,个人与智能机器系统控制者之间的力量对比愈发悬殊。

从技术治理的运行看,治理体系的算法化以更隐蔽的方式极大加强了国家对社会的控制。在硅基文明时代,代码即规则、算法即权力,信息技术构成影响乃至主宰个体行为的控制力量,技术治理对高危人群的识别和对犯罪风险的预测主要通过算法驱动智能系统完成指定任务,代码、算法、模型构成了国家意志的实现机制,个人作为被分析、被治理的对象无从参与算法的设计。“国家通过人工智能塑造出的镜像权力‘修剪’着社会现实,通过算法滤镜看到的社会可能只是政府自己的影子。”“技术和技术平台具有短期跃进效应和长期固化效应。”智能机器系统一旦投入使用,技术治理的资源将围绕技术平台的运转而投入,技术平台在提升治理能力的同时,也在相当程度上限制了技术治理之外的治理创新。技术治理所形成的路径依赖从体制、机制上提高了民众参与治理的门槛。

从民众参与的能力看,“数字利维坦”的形成导致社会关系的改变,民众的生活被数字技术、算法、模型所控制在所难免。“互联网发展成为互不联网,‘只见树木、不见森林’成为大趋势。”碎片化信息越多,社会真相就越模糊,个人也就越无法进行理性思考。在算法时代,“说服计算”的愈发流行,人们被看透得越多,个人的选择就越不可能是自由的、不被他人事先决定的。“互不联网”“说服计算”“算法黑箱”等因素共同限制了民众对技术治理的知情权,而前述技术运行的长期固化效应则限制了民众对技术治理的参与权。

“纵向数字鸿沟”的加剧源于技术治理对工具理性的过度追求,是技术治理在效率和秩序方向上持续扩张的负效应。技术治理对秩序唯美主义和全景式监控的过度追求使个人变得更加透明,导致隐私的边界不断收缩。算法和技术的扩张使监控权力的运行变得更为隐蔽,隐私被侵犯、算法歧视和“算法黑箱”成为信息时代“看不见的非正义”。正如於兴中所言,“算法社会是科技精英社会,我们可能正在期望一个比现有社会更不平等的社会。这种不平等是从起点到结果的全方位的不平等,这是罗尔斯、桑德尔和森合起来也无法对付的”。从本质上看,“纵向数字鸿沟”是一种基于信任危机和权利危机的数字不平等。


二、社会参与技术治理的非均衡性


未来学家托夫勒指出:“未来生产和生活方式的核心是网络,谁控制了网络,控制了网上资源,谁就是未来世界的主人。”由此,弥合“数字鸿沟”的最佳选择在于调整技术治理的主体关系,将治理权力从国家外溢至社会,以实现个人数据权利的方式促进社会参与。技术治理的主体包括政府、科技企业和民众,社会参与主要体现为科技企业和民众的参与;但这种社会参与在企业和民众之间存在巨大的非均衡性,呈现出迥然有别的状态,即政府与企业缔结了紧密的合作治理机制,而民众参与相对薄弱。

(一)政府与科技企业的紧密合作

随着人类步入信息文明,科技资本异军突起,在悄然间掌握了越来越多的话语权。作为信息技术的提供商,科技企业以智能机器崛起的方式推动数字控制型社会的生成。科技企业将触角全面渗透至生产、物流、金融、商业、交通、出行、安防、通信、社交、公共服务甚至军事领域。凭借技术优势,科技企业掌握了大量的经济社会数据,在各自领域形成了事实上的数据垄断,并通过技术迭代升级不断巩固自身的“数据寡头”地位。科技企业尤其是头部企业的快速发展对社会治理模式和治理机制产生了重大影响。“在世界范围内,新技术公司渗透到各社会阶层和群体的日常生活,颠覆性科技的触角几乎延伸到人类物质和精神生活所能企及的所有领域。”科技企业是技术治理不可或缺的参与主体,其参与作用表现如下:

第一,科技企业通过承接政府项目等形式为技术治理提供集成算法、模型、软件、硬件于一身的智能安防系统和数据服务方案。如海康威视公司之于“雪亮”工程、科大讯飞公司之于“上海刑事案件智能辅助办案系统”、阿里集团之于“城市智慧大脑”建设的重要作用。如今政府数据平台的开发和运营维护几乎均由国内互联网科技企业承揽,这构成了科技企业的主业,也是科技资本财富积累的主要途径。

第二,科技企业参与对涉网络案件、网络灰黑产业违规违法活动的治理。科技企业能够为涉网络案件的侦办、司法处理提供数据分析及电子证据。《网络安全法》还要求科技企业须承担一般性法律义务,履行平台管理的责任。“网络服务提供者在网络社会中处于核心地位,给网络服务提供者设立管理义务是各国立法的趋势。国内外立法一般要求网络服务提供者承担协助执法(协助通信监视、数据留存与提供)、内容信息监管、用户数据保护等义务。”因此,科技企业必须履行对网络灰黑产业中违规违法行为的管理义务,如阿里的绿网系统和腾讯的万象优图系统对直播平台中色情信息进行AI鉴黄,阿里集团运用大数据技术监管网购平台中的制假贩假类经济案件。

第三,科技企业以履行企业社会责任的方式参与社会治安综合治理,尤其是参与电信网络诈骗犯罪的防治工作。如腾讯公司以鹰眼系统、麒麟系统打击电信网络诈骗,并联合公安、电信、银行等部门共同发起“守护者”计划;阿里巴巴集团开发“团圆”系统发布失踪儿童信息,在打击和预防拐卖儿童案件中取得了良好的社会效果。

(二)民众参与技术治理尤甚薄弱

“大数据的利益相关者包括大数据搜集者、大数据使用者和大数据生产者。”个人是典型的大数据生产者,政府和科技企业属于大数据搜集者和使用者。相对具有严密组织度的国家和拥有技术优势的科技企业,个人在技术治理中无疑处于原子化形态和边缘化境地,更多以被治理对象的面目出现。“现代技术已成为‘巨机器’或‘巨技术’,即与生活技术、实用主义和多元技术完全相反的专制技术,其目标是权力与控制,技术治理追求整齐划一的秩序,导致人的异化。”

在个人与政府的关系中,民众对技术治理的知情权、参与权及监督权亟待改善。政府权力来源于人民的权利,政府和民众在法理上属于治理权力格局的同一侧。我国的“平安建设”由政府主导,基于科层制结构自上而下的组织化调控推进,个体缺乏参与治理的稳定渠道和双向互动的有效机制。技术治理的扩张在潜移默化中塑造且维持了“上暗下明”的治理格局,个体被简单数据化和物化的趋势愈发明显。“国家依靠信息技术的全面装备,将公民置于彻底而富有成效的监控体系下,而公民却难以有效地运用信息技术来维护其权利,即无法通过数字民主来制衡国家的监控体系。”在此意义上,管理部门掌握的信息资源越多、管控手段越强大,个人在技术治理中的参与地位可能就愈发边缘和弱势。如个人数据如何被保管和被使用、谁是数据监控的潜在目标人群、哪类群体因何种原因被重点监控、围绕公共安全威胁评分的高危人群捕捞模型的应用边界、算法设计有无监督程序等问题均无定论,为保护数据权利而提供法律依据的个人信息保护法和数据安全法尚未出台。

在个人与企业的关系中,个人作为被技术治理的对象无不受科技企业所编织的数字化生活影响。民众在享受技术便利的同时,通过提供手机中的通讯录、图片、麦克风和摄像头权限等方式,以隐私交换服务,以数字无产阶级身份为企业生产数据。企业通过抓取个人数据,以算法和模型分析用户喜好,生成用户画像,把资本的意图植入技术,有针对性地投放内容,诱导人们从事特定行为。所谓代码即法律,科技企业以架构民众数字生活方式的形式,悄然窥探、分析、引导、控制、形塑民众的思维方式和行为模式。在数字化时代,我们获得的信息比以前更多,然而我们确实在其他方面懂得更少了;数字化生活的四周满是墙壁,阻挡了对于真知灼见的洞察;互联网推动了一种更加被动的逆来顺受的认知方式。所谓算法即规则,科技企业引领人类步入算法时代,算法帮助企业看透民众的所思所想。算法有时甚至比我们更了解自己,算法的建议就像我们自己的决定一样。借助AI技术,企业正在向“说服计算”大踏步迈进,以“说服计算”的方式远程控制用户心理、操纵用户行为。这种复杂的操纵技术不仅在商业领域所向披靡,在社会治理甚至政治领域的威力也不容小觑。如在脸书用户数据泄露事件中,剑桥分析公司针对数千万用户施以说服计算引导选民投票,以此谋取政治上的利益。


三、回归信息技术的赋权功能


技术治理的合法性不能只取决于治理绩效,也不能仅构筑于技术和资本之上,而应根植于民众的有效参与和真心支持。针对民众参与治理甚为薄弱的问题,解决思路的关键在于如何实现从形式参与到实质参与的转变。以往的应对策略多主张从国家视角出发设计多元化的参与机制,引导和鼓励民众参与;但这种国家主导的参与治理在实践中易蜕变为形式上的参与。这种思路的局限在于忽视了互联网对个人的赋权功能,忽视了个人数据权利的行使对实现民众实质参与的积极意义。

互联网及大数据技术不仅具有社会控制的一面,更具有对个人赋权的一面。在经济领域,互联网催生了庞大的数字经济体系,为亿万个体提供了融入数字经济、了解世界、摆脱贫困、追求财富的机会,这在相当程度上弥合了“横向数字鸿沟”。在社会治理领域,互联网等信息技术构成了民众实质参与治理的最佳媒介。“互联网极大拓展了公众参与公共政策过程的地理边界和知识边界,它提供的无障碍、全景式的信息流动渠道,使跨时空、跨边界、跨领域的普遍联系成为可能,实现了碎片化社会力量的集聚效应,这种力量不可估量,并形成跨时空、跨边界、跨领域的联动。”正是基于此,社会学家曼纽尔·卡斯特在《网络社会的崛起》一书中写道:“人类进入网络社会,人类的文明才刚刚开始。”

当前,个人数据权利保护浪潮风起云涌,民众维护自身权利的集体意识逐渐觉醒,人本主义精神对大数据创新和技术治理显得弥足珍贵,技术治理的权力应遵循法治之道成为社会共识,对新技术使用的“技术化归”迫在眉睫。所谓“技术化归”,是指“各种新技术必须得到转化使其从陌生的、可能有危险的东西转变成能够融入社会文化和日常生活之中的驯化之物”。在法治社会,对信息技术的化归莫过于从技术治理的数据监控本质入手,紧紧围绕被监控的对象——个人数据,探究、确认、保障个人的数据权利,以数据权利保护制衡数据滥用和规范技术治理扩张,在数据权利的实现过程中促进民众的实质参与。

在过度互联的大数据时代,大数据技术渗透至社会生活的方方面面,并将每个人从茫茫人海中完美地识别出来,个体生活都将留下不可隐藏的“数字印记”,个人信息无时无刻地处于智能机器的洞察之下,全景智能社会滑向“零隐私社会”的未来图景令每个人忧心忡忡,隐私弱化及数据被滥用的法律风险居高不下。“在一切皆可数据化的条件下,大数据生产者的一言一行都将以数据的形式存在并为大数据主体搜集、存储、挖掘和利用。大数据生产者处于绝对的被动地位,无法知道自己生产出来的数据在何时何地被搜集、存储、挖掘和利用,更不知道将对自己产生怎样的消极影响。”对此,从自然法和自然权利视角看,民众应享有对个人数据的相关权利;从公共安全视角看,民众不得不让渡出一部分自由和隐私给国家,“国家利维坦”对个人数据的使用是公共安全治理的必然选择。因此,国家应尊重和保障个人的数据权利,遵循法治之道保障个人了解自身数据的使用情况(包括使用数据的类型、范围、程序等),制定数据保护的法律法规和规范性文件,尽最大努力防止数据被泄露和被滥用,监督政府机构和科技企业的数据分析行为,消除算法歧视和防范算法黑箱的出现,打击和预防侵犯公民个人信息的违法犯罪,消除数据使用中的各种不公平对待和不平等现象。正如麻省理工学院阿克莱特·彭特兰所言,政府应建立“将公民自身数据的所有权、使用权、控制权和处置权交还给公民自己”的“数据新政”。


四、以数据权利保护为跨越非均衡性的法律阶梯


民众的实质参与关涉信息社会及技术治理的未来发展,直指数据监控的价值理念和大数据社会福祉的现实。从实质合法性视角看,技术治理不仅依赖技术创新和科技企业的协同,更离不开民众的实质参与,民众实质参与是技术治理实质合法性的基础。数据监控的最终目的不在于统治,而在于治理;不在于构建深度覆盖全社会的智能治理系统,而在于保障人民的权利,在总体国家安全观下促进安全与隐私、秩序与自由、效率与公平的平衡。虽然促进民众实质参与技术治理的方式有很多,但法治方式无疑是最为重要的实现途径,个人数据权利的法律保障构成了跨越社会参与非均衡性的法律阶梯。

(一)个人数据的权利类型

面对数据监控的全面扩张,个人数据权利的法律实现至为重要。法治之道即为大数据时代的人类生存之道,这种法治之道一般体现为个人以行使数据权利的方式与数据分析者、使用者打交道。数据权利并非民法意义上的人格权或财产权,而是专指个人因自身数据被政府、企业、社会组织及其他个体采集、使用时所享有的利益。本着从外延至内涵的研究思路,应先厘清个人数据的权利类型。

从个人对自身数据所拥有的合法利益视角看,在自然权利意义上,数据权利应包括个人对数据的所有权、使用权、可携带权、保存权、知情权、同意权、隐私权、被遗忘权等。这些具体的数据权利分别涉及个人数据使用的全流程,其中数据隐私权和被遗忘权颇具特色。数据隐私权不同于传统意义的隐私权。大数据浪潮及技术治理的持续扩张极大冲击了传统的隐私观,私人空间被不断压缩,个人隐私日益被社会化及商业化,隐私权面临重新界定和权利重塑。个人生活和社会事实成为“国家之眼”凝视、分析和规制的对象,成为被监控、被编码和被秩序化的目标。数据隐私权保护的独特之处在于个人与国家、企业之间存在极其严重的信息不对称,个人几乎没有可能在数据监控乃至无孔不入的非法窥探面前保守隐私。在社会关系中,隐私几乎无法追回。作为一种信息,隐私很难被定价,侵犯隐私的赔偿标准亦无从确定。随着数据监控的不断扩张,个人变得愈发透明,技术治理的权力拥有者及智能机器系统的运行则变得越来越隐秘。现实世界的赛博空间化、社会规则代码化,在一个个无法穿透的“算法黑箱”面前,个人数据愈发向少数“数据寡头”汇聚,“数字利维坦”的脚步愈发临近。仅凭《网络安全法》《民法总则》等法律的分散规定不足以应对隐私权保护的现实需要,为保护个人免受数据掌握者的权力滥用,隐私权法律体系亟待重构,制定专门保护数据权利的个人信息保护法迫在眉睫。

被遗忘权是数字化世界衍生出的新型权利,随着“零隐私社会”的临近,个人数据在网络上被遗忘、被删除成为保护个人隐私的客观需要,被遗忘权由此兴起。被遗忘权主张,个人有权处分自身数据,以限制和对抗数据采集者和数据使用者(政府和企业)对个人数据的滥用。在实践中,囿于被遗忘权的“被动”属性,该权利的行使面临诸多挑战。对此,有学者做出如下总结:“信息能否被遗忘,数据控制者享有自由裁量权,数据主体仅有申请权;数据控制者的超级权限,可能导致被遗忘权被滥用的危险,从而妨碍公民的表达自由和知情权;信息的被遗忘是相对的,而不是绝对的。”“大数据时代,被遗忘权的核心内容是数据被删除,而不是被遗忘。”“今天‘删除’已成为大数据时代的热词,与‘存储’形成了一种强烈对抗。这意味着存储越多,就越容易对公民隐私构成潜在伤害,而防止这种伤害发生的方法是删除。”于是,如何实现被遗忘权的法律保障成为数字时代的重要立法议题。

从数据法的作用方式上看,数据权利包括积极的数据权利和消极的数据权利。所谓积极的数据权利,是指数据法要求实施监控活动的数据分析者遵循事先约定严原则,对社会公开拟监控的数据类型、波及范围、监控的正当理由、正当程序及法律责任。之所以称其为积极的数据权利,因为该权利对应的是政府等治理主体的积极作为义务,设定这种积极义务的理由是政府在技术治理中应对社会公开拟使用的数据情况及数据监控的治理流程。所谓消极的数据权利,是指个人有权反对数据使用中的不公平对待,以防范数据监控掌控者的数据滥用、计算机官僚主义等数据异化问题。之所以称其为消极的数据权利,因为该权利对应的是政府等治理主体不得作为某种行为的消极底线。

从权利主体类型上看,数据权利包括个体的数据权利和集体的数据权利。“社会正义不是凭空出现的,而需通过集体的行为来理解。”当前,侵犯儿童数据隐私、利用网络工具侵害儿童权益的违法犯罪屡禁不止,针对老年人群体的非法集资等涉众型经济犯罪亦居高不下。大数据时代日益增长的数字经济正在把个人权利让位于集体,并与数字时代隐私观念的重塑等问题复杂交织于一体。大数据技术更倾向于归纳群体的行为而不是个体的特征,构建数据正义、实现数据权利不可避免要超出个体层面。因此,数据权利必须能够在集体层面实现,如儿童、老年人等群体的数据权利、社区数据共享权利等。这种数据权利的集体转向要求数据法从个人权利保护向集体权利保障的延伸。

(二)以人工智能伦理为数据法理念

数据权利及数据法的立法设计离不开人工智能伦理的指引。关于大数据的美好畅想可能是对机器智能的浪漫乌托邦想象,“大数据及其技术本身存在不可调和的矛盾。如果没有制度、法律、文化的支撑,大数据技术本身是对人文、人类生存、社会伦理和正义以及民主的巨大威胁”。在技术治理中,人工智能的应用愈发普及,人们在数据分析、风险评估、犯罪预测等领域对AI的路径依赖愈发强烈。“我们过度依赖某一种认知世界的方式,而使其他感官变得迟钝,这是一件危险的事情。”

“在人类有史以来最伟大的发明面前,人类该选择调整既有秩序甚至价值体系走进人工智能世界,还是将人工智能嵌入人类千百年所构建的世界秩序之中?”对此,霍金的观点至今发人深省,“人工智能的短期影响由其控制人员决定,而长期影响由人工智能是否完全被人控制所决定”。“技术奇点像一个黑洞,对人类思维而言完全深不可测。”随着让渡决策的应用愈发广泛,在限定条件下AI已经能够进行智能决策,如“上海刑事案件智能辅助办案系统”通过对案卷材料的语义识别和结构化抽取,基于特定证据模型对刑事案件进行智能定罪量刑。这种AI系统的运行一定不能背离人类的价值观、正义观、道德伦理观念及法律规范。因此,技术治理所依赖的智能机器必须是道德机器,道德机器的运行必须处于人工智能伦理的规制之下。在“代码即法律”的背景下,AI需被植入道德代码,将人类的数字正义价值观念、法律规范、道德伦理要求转化为计算机代码,嵌入AI的运行流程。此外,道德机器还可能面临“道德过载”问题,即AI系统受到多种规范和价值约束,诸如法律要求、金钱利益、社会和道德价值等,它们彼此之间可能发生冲突。在此情况下,哪些价值应当被置于最优先的地位?{36}对于数据法的制定,人工智能伦理可谓至关重要。数据监控究竟以何种理念为价值导向,安全、秩序理念与隐私、自由观念发生冲突时如何平衡,政府和企业采集、使用个人数据的权力边界如何划定,如何消除和防范技术运用中诸如算法歧视、隐私被侵犯等不公平对待问题,这均有待于人工智能伦理的深入探究,“人工智能伦理”的法理研究构成了数据法通往“数据正义”的基础性环节。

(三)域外数据法的权利保护经验

天下之治,有因有革。欧盟在数据权利保护领域走在世界前列,尤其是欧盟《一般数据保护条例》(GDPR)于2018年5月25日生效,这对我国数据法的制定具有借鉴价值。面对各种“颠覆性技术”的挑战,GDPR奠定了欧盟未来几十年的数据保护范式,对企业收集个人数据做出全新规定,对个人数据权利的保护做出系统性规定,建立了数据泄露的应对程序,要求数据密集型企业履行相关通知义务。作为在互联网、移动智能设备快速发展下应运而生的法案,GDPR致力于保障个人隐私安全,条例对数据生命周期的各个环节都有相应规定,还引入了一些新概念、新惩罚机制等。

GDPR重点保障个体对个人数据拥有更多的掌控权。各大社交网络公司在使用个人数据之前必须征得个体的同意,要求科技企业履行更多的法律义务,尤其是基于AI技术处理的个人数据将受到严格监管,如果一个机构要向第三方传递个人身份信息,必须要提供对该信息的充分保护,违反该条例的企业将被处以最高2000万欧元或公司年收入4%的罚款。GDPR对科技企业各层面的日常运行带来极为深远的影响。GDPR涵盖了数据的任何使用者、控制者,任何机构只要收集、传输、保留或处理涉及欧盟任何人的个人信息,如姓名、电邮地址、IP地址、照片、社交媒体帖子、医疗信息、财务信息等就须遵守该条例。GDPR并不考虑数据使用机构所在的地理位置,或者身份信息是否关系到个人隐私、公共生活。GDPR对我国数据法的制定颇具启发价值,技术治理必须对由技术引发的各类风险进行法律规制。政府、企业及其他组织对个人数据的采集、使用、交易、存储等活动须依法开展。可以说,加强个人数据保护、明确及规范数字权利、以法律制度消弭数字鸿沟既是“国家大数据战略”的应有之义,也是社会主义法治理念的必然要求。

(四)个人数据权利的法律确认

技术治理的扩张与个人数据权利息息相关,国家有责任在社会安全与个人自由、技术发展与公平正义之间谋求一种总体性平衡,以保护个人数据权利的方式搭建跨越“数字鸿沟”的法律阶梯。

第一,应尽快出台个人信息保护法,从法律层面对个人数据、数据监控的基本概念、原则做出法律界定,对数据监控的有权主体、对象范围、正当程序及法律责任做出系统规定,明确个人拥有的数据权利,赋予个人控制自身数据的自主权,对各类数据使用主体、生产主体、交易主体之间的权利义务关系进行详尽约定,对个人数据在公共机构与商业机构之间的流转做出程序和实体两方面的限制,细化侵犯个人数据权利行为的法律责任。对于个人数据用于数据监控的权力进行限定,防范数据滥用和数据泄露。毕竟,“我们往往不希望绝对的秘密。相反地,希望控制我们的信息如何被使用、透露给谁、如何传播。我们要限制信息的流动,而不是完全让它停止不动。”

第二,在《网络安全法》基础上,应进一步制定保护网络安全、数据安全的“软法”。2017年出台的《网络安全法》在总体安全观指导下对网络安全、数字安全做出了总体性规定,但该法也存在一定问题。如“‘重实体,轻程序’和‘重管理,轻保护’是我国网络信息安全法律制度中比较突出的问题,对于严重影响行政相对人合法权益的多项措施,如果欠缺相应的程序性规定,在实践中容易被滥用,而且也会降低法律的可预期性。”对此,应注重发挥软性法律针对性强、灵活度高的优势,以软性法律弥补“轻程序”问题。软性法律往往表现为平台的技术规范、数据安全技术标准、数据系统使用规程、算法设计准则等。软性法律为技术治理的技术运用提供了具体、明确的标准,且软法与法律程序常常密不可分,故适用软法实际上就是在遵循标准化程序进行法律监管。

第三,数据法应对人工智能应用进行法律监管。AI在技术治理中的应用促使各界对算法歧视、“算法黑箱”、让渡决策、数字隐私、AI的安全管控乃至法律本身的数字转型等议题展开深刻反思。在算法社会,“算法被视为一种社会权力”,为防止代码和算法对法律的架构,必须对算法权力进行法律控制,对算法的设计原则、设计规则、设计流程等进行监督,以此规范预测性执法的权力边界。人类的未来不能靠算法与代码来设计,没有法律、伦理、文化的支撑,AI对人类是一种巨大威胁,必须对算法的设计进行法律规制,通过法律化解、吸纳技术风险,规范、制约算法缔造者的行为。人工智能伦理系人工智能立法的指导思想,公平的算法来自于人工智能伦理的引导,需将法律和伦理转化为计算机代码和种子算法,以种子算法解决智能机器的算法歧视、道德过载问题。

第四,在技术社会,如何实现个人对人工智能伦理及数据法制定的知情、同意、参与、监督权利,这是数据权利法律保障的关键环节。人的自主性更多通过个体权利的行使予以体现,而民众参与数据法制定构成了保障人的自主性与实现数字民主的关键环节,也是在信息化时代保持独立和批判思考的基本前提。这要求设计法律程序保障民众充分了解技术治理的运作流程和救济途径,设定合理的用户同意提取个人数据的协议,保障民众能够有效参与、监督法律制定的全流程。

综上,在风险社会和网络社会的交织交融下,社会安全风险居高不下,预防性导向的数据监控已成为社会安全发展的必需品,故不存在绝对的数据权利,数据法的制定在某种程度上亦是价值权衡、利益博弈的产物。必须认识到这种非均衡性的消弭存在一个长期、反复、渐进的过程,并在相当程度上取决于数据权利的法律保障。可见,本文在阐明跨越“数字鸿沟”基本路径的同时,也开放出一个更为复杂且关键的问题域,即数据权利法律保障体系的构建,而这有待于学者进行持续深入地理论研讨。

    进入专题: 数据监控犯罪技术  

本文责编:陈冬冬
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 刑法学
本文链接:https://www.aisixiang.com/data/119258.html
文章来源:本文转自《中国特色社会主义研究》2019年第5期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统