返回上一页 文章阅读 登录

徐琳:人工智能推算技术中的平等权问题之探讨

更新时间:2019-06-18 07:44:36
作者: 徐琳  
即歧视的表现形式是在相同的情况下无合理理由而恣意取消或损害特定群体或个人平等享有权利的任何区分、排除或选择的措施。[18]第二、采用国际人权公约关于歧视的定义,认为“歧视”包含着三个构成要件:首先,存在着区别待遇;其次,此种区别具有不良的效果;最后,该区别的理由是被禁止的。[19]第三、任何形式的歧视都是基于区分,而区分的基础则是个人的特征,诸如种族、肤色、性别、语言、宗教、政治或其他意见、国籍或社会出身、财产、出生或其他身份。个人的这些不同的特征构成了歧视的前提,但并不是所有形式的区分都是歧视性的,人权法所反对的区分是建立在不合理的和主观的标准之上的区分。[20]

   可看出,以往对“歧视”概念的认定,主流观点是人权事务委员会在《关于非歧视的第18号一般性意见》中的“歧视”定义。主要的国际公约和大部分国内外学者都承认类似的观点。强调其核心是客观上具有存在不合理的区别待遇,而区别待遇的类型和理由是法律所禁止的,以及客观上由于区别待遇,所造成非公平公正等的不良后果。这类流派承认歧视源自主观的偏见或偏好,但不以主观要素为必要条件,更看重客观所造成的不良社会效果。

   (二)现代意义上的歧视行为的界定与解读

   歧视不仅为法律所禁止,在伦理道德上更是不允许,禁止歧视行为是人类社会历经几千年形成的共识,代表着人类文明的进步。人们认为随着科技的不断发展进步,尤其是数据分析、机器算法决策等人工智能技术的应用,社会应会变得越来越公平,越来越完美。然而,实际情况却非如此,机器算法得出的决策并非客观公正,可能会出现更为隐蔽和严重的歧视行为。英国《卫报》就曾发表评论指出,人工智能可能已出现种族和性别偏见,但这种偏见并非来自机器本身,而是计算机在学习人类语言时吸收消化了人类文化中约定俗成的理念,从而导致出现种族和性别偏见。这些发现让人担忧,现有的社会不平等和偏见正在以不可预知的方式得到强化。[21]例如,2015年7月的《纽约时报》登载,卡内基梅隆大学研究人员利用ADFisher(一种广告钓鱼软件)模拟普通用户去浏览求职网站。随后,在诸如《卫报》、“路透社”等新闻网站上,统计由谷歌推送的“年薪20万美元以上职位”的广告数据。结果显示,男性用户组收到1852次推送,女性用户组则仅收到318次。[22]2018年3月,我国一则“大数据杀熟”的新闻就引起了舆论对数据技术滥用和算法歧视有关的激烈讨论。所谓“大数据杀熟”就是指某些网络交易平台通过分析其常用客户的过往消费和浏览记录,通过机器算法来洞悉和分析各消费者的偏好,从而可以“看人下菜”,在同一时刻对同一产品针对不同消费能力群体进行差别定价,主要体现在同一件商品或服务,互联网厂商显示给老用户的价格要高于新用户。[23]广大消费者却在毫不知情的状况下,或者是在完全信任交易平台的情况中,被迫接受这种差异化付费模式。在传统的商品服务交易市场中,价格也许会随着卖家的主观心理而有所差别,但一般而言买卖双方可就价格协商,基于公平自愿原则达成交易。而随着人工智能技术的应用,如今网络交易平台操作十分便捷,不少消费者在衣食住行上都依赖其提供的服务。当平台给出消费项目价格之时,一般情况下,普通消费者基于依赖和信任的心理认为自己付出的对价与他人相同,进行的是对等交易,所以都会选择接受此价格,根本不会意料到背后还有如此隐蔽的宰客手段。显然,这种“个性化”的商品服务,损害了消费者的知情权,有违市场交易的诚信原则。中国青年报社社会调查中心联合问卷网,对2008名受访者进行一项调查显示,51.3%的受访者遇到过互联网企业利用大数据“杀熟”的情况,59.2%的受访者指出大数据面前信息严重不对称,消费者处于弱势地位。[24]著名的亚马逊网站也曾出现过类似事件,其网站购物推荐系统有意识地偏袒自己以及合作伙伴的物品,即使其它卖家商品价格更低。而且在购物比价服务中,亚马逊故意隐瞒自己以及其合作伙伴物品的运费,导致其消费者不能得出一个公平透明的比价结果。[25]这些事件充分说明在人工智能时代下普通消费者的处境不容乐观,一旦数据和技术被滥用,算法决策造成的价格歧视便会无处不在,让消费者们无从防范。

   建立在数据分析上的算法决策本质上是用过去预测未来,而过去的歧视和偏见则会在智能算法中固化并在未来得以强化。[26]随着人工智能技术的发展与推广应用,机器算法带来的歧视问题已不仅限于传统的种族、性别等其它因素,其范围还涉及到人类的日常生活和社会事务中,同时,也开始逐步影响人类社会制度和经济发展的方方面面,并且其中的构成方式越来越隐蔽,它们通常被披上一层合法的外衣,公众难以察觉。当然,人工智能并没有创造歧视的本身,而只是改变了歧视存在或产生的方式,也打破对以往歧视的传统认知,赋予了“歧视”更广阔的外延,为社会歧视现象的出现提供了新的渠道。

   虽然,机器算法歧视与传统的歧视相比,在产生和表现形式上更具有开放性和隐蔽性,但这两者在内涵上并无本质不同。不过由于人工智能技术发展的不可预知性和风险的不确定性,在应用过程中,要避免对待机器算法歧视等同于传统歧视的思维定式。随着人工智能技术应用的深入,针对当前已出现或未来有可能出现的歧视问题,我国现有法律制度还难以应对和解决,需要相关法律法规对此进行指导和监督。

  

   四、“算法歧视”损害平等权的实质行为

  

   我国学者对平等权的解释具有代表性的有:1、平等权是公民的一项基本人权,它意指公民同等的依法享有权利和履行义务的自由度。2、“权利平等作为权利享有、行使、实现过程的基本原则,蕴含着三层含义:首先是主体的普遍性。在大致相同或相等的条件下所有主体皆为权利主体;其次是对于内容实质的同一性权利,以及内容数量的同一性,一切权利主体享有相同或相等的权利;最后则是权利救济的非歧视性在权利实现遇有障碍时法律无差别的给予救济和保障”。[27]当今学界普遍认可的观点是将平等权视同为是权利的保障和实现形式。对平等权的解释包括四部分:权利平等、义务平等、法律适用平等、法律界限平等,它们统一构成了法律上的平等权。

   (一)人工智能语境下的新型侵权模式

   今天,“人工智能”技术正在逐步推广的应用,其所附带的“新型”歧视行为对传统的平等权构成威胁。2016年11月上海交通大学 Xiaolin Wu 和 Xi Zhang传到 arXiv 上的一篇题为《使用脸部图像自动推断罪犯》的论文,研究者试图通过人脸识别来研究犯罪推定,预测它的准确率百分比。这篇论文指出,基于“嘴唇的曲线”,“眼睛内角的距离”和“所谓的鼻子角度”这几个关键的面部特征,可以较高概率地预判某人是否具有犯罪属性,即利用机器来计算脸部特征与犯罪性是否具有一定的相关性。研究人员通过四种不同的自动化神经网络运行,其中最值得称赞的一种网络技术,能够识别出89.51%选定群体的犯罪分子。[28]此论文一出即引起了舆论的高度关注。当然,这些研究者们申明他们并不赞成,也认为尚无法将该研究成果完全应用于司法实践中。不过由此引发出人工智能决策可能造成的社会歧视和不平等的讨论的确值得各界人士的深入研究思考。

   这种机器视觉算法在作决策时,不会如人类会因种族、宗教、政治立场等主观价值而产生任何的偏见,也不同于人类会因为身体和心理的健康状况从而影响自身的决策。在此情况下,大部分人通常会认为,纯粹由人工智能以面部识别形成的决策判断,一定会比人类作出的决策更加公平公正。它不掺杂任何偏见,不会使任何人蒙冤,也不会放过一个罪犯,能够有效打击犯罪,提高案件的侦破率。但是,事实真的如此完美无暇吗?如孤立地从事件本身来看,这的确可提高侦破案件的效率,节约司法资源。但如从公平正义的角度来看,却非如此。首先,这显然违背了法律推理的定罪方式,不讲客观事实和证据逻辑,甚至有违罪刑法定原则。其次,依托该人工智能技术,即使可从客观的面部特征上精准地识别出犯罪嫌疑人,但它所带来的益处是有限的,而相对于给整个社会大环境所而言,它所带来的风险是不可估量的。因为,当这种算法技术因其超高的辨别率被广泛应用于实践中,久而久之,公众也许就能依据结果,大致解读机器算法得出的所谓“犯罪脸”的特征,民众就无法避免形成基于此特征的歧视。然而从技术角度来说,目前机器算法大多具有可复制性困难问题,其推理本身存在逻辑缺陷,很多时候我们将算法推理结果之可能性视作确定性判断,将强相关性认为是因果性,忽视其中的不确定性。[29]在使用脸部图像自动推断罪犯的案例中,算法技术依据脸部特征类似人群的犯罪情况,用以推断个人是否属于犯罪分子,从本质上来说这些脸部特征信息和个体目前或者未来的行为有着多大的逻辑必然性呢?一旦人们普遍形成这种歧视,这就意味着具有该脸部特征的人群,不会被社会所平等对待,会出现新型侵权行为与现象,整个社会发展难以实现真正意义上的公平正义。而在美国,Northpointe 公司开发的犯罪风险评估算法COMPAS已造成不可回避的歧视问题,非营利组织 Pro Publica 研究发现,此算法用于再犯风险评估,该算法的运算过程和结果,直接导致系统性地歧视所有黑人。大部分白人更多被评估为具有低犯罪风险,而黑人被错误地评估为具有高犯罪风险的几率两倍于白人。[30]一旦类似的人工智能技术应用到司法体系中,其结果就是对少数族裔平等权的践踏,其本质与历史中的种族不平等又有何异?在长期不被认可接受的环境下,势必会使得他们的性格和价值观偏离正确的轨道,从而可能导致走向极端,导致整个社会公共安全治理的恶化。为了防止这类后果的发生,欧盟一般数据保护条例(GDPR)第22条明确规定数据所有者有权利不接受完全由自动化处理的、没有人类干涉的条件下做出的重大决定。

   (二)人工智能语境下的司法审判模式之变

为了提高案件审判的公正性,当前我国司法系统很注重人工智能技术的应用。最高人民法院提出要“建设立足于时代发展前沿的‘智慧法院’”,最高人民检察院发布了《“十二五”科技强检规划纲要》。人工智能技术被当作审判的辅助性工具,只能在有限的范围内用于减轻检索负担、避免疏漏,[31]将大数据分析和机器算法决策的结果作为参考用来弥补人类法官审判的不足,可以辅助司法决策、提高办案效率、优化司法资源配置。但如果在司法实践中对案件的审判裁量排除了人类的参与,完全被人工智能技术取代,可能会违背我们的初衷。首先,算法决策的过程是机械的。尽管算法决策能遵循三段论的推理模式,在一定程度上能防止法官的个人主观倾向和对裁量权的任意使用,但是算法决策不像人类会进行伦理道德的衡量,注重保障人权,兼顾社会和政策利益等价值推理。霍姆斯法官就曾提出“法律的生命并不在于逻辑而在于经验”[32]的格言。其次,在具体案件事实中,对于同一个概念的理解有平义、缩小、扩大、类推等多种解释技巧,在对许多概念的理解上并没有一个固定统一的标准,如何理解取决于法官在法律范围内的价值抉择。可见,解决价值推理的问题,是实现人工智能法律系统为判决提供正当理由的前提。为此,P. Wahlgren提出的与人工智能相关的五种知识表达途径中,明确地包括了以道义为基础的法律推理模型。[33]不过,即使把道义逻辑强加给计算机,机器也很难产生价值观念和主观体验,没办法解决主观选择的问题,只有人类自身才能够平衡相互冲突的利益,发现对人类生存和发展至关重要的价值。[34]再者,算法的优劣程度在很大程度上取决于数据样本的客观完整程度,而来源多样化、规模不断膨胀的法律数据本来就不可能完美无缺,何况在中国快速发展的过程中还存在比较严重的质量问题,甚至也有基于政绩考虑的数据造假问题。[35]另外,算法的设计者和开发者可能附带着主观倾向或偏见来使用数据,存在“算法黑箱”以及逻辑缺陷的算法规则。(点击此处阅读下一页)

本文责编:陈冬冬
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/116752.html
收藏