返回上一页 文章阅读 登录

何哲:人工智能技术的社会风险与治理

更新时间:2020-11-10 21:39:08
作者: 何哲  
也会极大模糊人工智能的边界和进化形态。

   (六)惩罚无效

   显然,当人工智能普遍进入人类社会后,就面临着传统治理体系惩罚无效的重大隐患。从人类社会的治理逻辑而言,人类社会的治理遵循着三个原则,一是道德原则,即社会确立什么是对的什么是错的道德规范,从而在人类的内心深处引导人类行为;二是奖励原则,通过物质、荣誉、身份等各种渠道,对个体从事好的行为进行奖励;三是惩罚原则,即对负面的行为进行惩罚和纠正。目前人类社会的法律体系是以惩罚原则为主要表现形式的。道德和奖励原则则通过其他如宗教、教育、经济、政治等其他系统实现。

   对于人工智能而言,显然,当人工智能特别是人形机器人进入到人类社会后,直接的结果就是原有人类行为治理体系的失效,尤其是惩罚系统的失效。由于人工智能的个体属性界定不明,与人类的生理系统完全不同,与人类的心理系统也不一致,人类社会基于经济惩罚和人身自由限制为主的惩罚体系究竟有多大作用,则很难估计。目前的一些法律研究者认为不应该赋予人工智能独立的法律主体地位,应该追溯到人工智能的拥有者,或按照监护人的方式来惩罚人工智能背后的设计者或者拥有者[[17]]。然而,显然这种观点忽略和没有认识到人工智能可能具有独立的判断力和个体意志的极大可能性。

   在人工智能的早期,惩罚体系的失效问题可能尚且不明显,然而,一旦人工智能的大规模应用后,其将导致严重的社会风险。一些自然人可能会利用人工智能去从事违法行为以逃避或者减轻惩罚,而更大的可能则是人工智能在从事了伤害人类社会的行为后,得不到惩罚或者惩罚并没有实质意义,例如对人工智能体的回收,到底有什么纠正或者惩罚的意义?显然,这些问题,都必须从现在开始进行每一个细节的仔细研究。

   (七)伦理冲突

   人工智能的大规模进入社会显然会引发一系列严重的伦理和价值问题。从大到人工智能能不能伤害人类?再到人工智能是否能够管理人类?小到人工智能是否具有人类一样的权利,例如自由权、人格权、休息权、获取报酬权、继承权等?[[18]]这些问题都直接关系到人工智能与人类的基本关系问题以及其能够带给人类什么?

   如果人类发明和改善人工智能,只是为了一种完全的占有和将其视为附庸,可以无条件的为人类提供服务,那么,人工智能显然就是完全的机器属性。这与人工智能越来越成为高等智慧的载体的属性相违背。而如果尊重并赋予人工智能特别是具有人类外观的机器人与人类一样的权利,那么,人工智能显然无法按照人类的意愿完全行事,人类为什么要创造出具有一样自由意志和权利,又在各方面显然优于人类的新种群呢?这显然是今天需要值得思考的。

   有人可能认为这种担心没有必要,然而,从近代以来对动物权的立法保护历程来看,动物从原先严格意义上的人类的附庸逐渐转变为拥有越来越多权利例如休息权,不被虐杀权[[19]],甚至在德国和意大利,立法规定了宠物拥有主人的财产继承权。这意味着,各种物种之间的平等权利,将是一种人类的基本文明趋势。长久的将拥有高度智慧并且与人类共同生存的种群置于人类的严格约束下,无论是在伦理还是在可行性上,可能都很难做到。因此,人类将如何面对人工智能,特别是人形的人工智能?与此相关,我们应该在什么阶段赋予人工智能什么样的权利,将是一个从现在就必须要严肃对待的问题。

   (八)暴力扩散

   人类的历史经验表明,技术的发展必然会优先用于暴力,或者说,暴力反过来是促进技术进步的主要发动机之一(另外两个是生产和娱乐)。关于机械和能源的进步极大提高了战争的规模和惨烈程度,而计算机最早的发明也是用于军事的密码破译和弹道计算。因此,技术的进步,必须要警惕其所引发的在社会暴力领域的变革。

   人工智能在暴力领域的应用显然已经成为一种事实而不是推测。在上世纪八十年代起基于自动控制和远程遥控的无人机等已经装备发达国家军队。而目前,主要发达国家都在进行人工智能的军事化研发,美军把人工智能化作为军队变革的核心方向[[20]]。大量包括战斗机、坦克等直接攻击武器和运输辅助性武器都在进行人工智能化。

   人工智能的暴力影响,不只在国家层面的军事领域,在其他各种领域都将产生作用。例如执法部门利用人工智能进行执法,恐怖分子则利用人工智能进行恐怖活动,在网络虚拟领域,黑客可以利用人工智能操控大量网络节点进行自主攻击。因此,人工智能虽然可能通过加强公共权力的暴力而改善公共安全,但还可能形成暴力的滥用从而危害公共安全。

   总体而言,由于人工智能技术的模仿在开源体系的帮助下,远较其他大规模杀伤性武器更容易,因此,基于人工智能武器化造成的恐怖与犯罪在未来可能会变得更加泛滥。而主要发达国家通过赋予人工智能杀伤权亦会违背机器不能伤害人的伦理底线,从而使得未来的人工智能技术变得更具风险。

   (九)种群替代

   由于人工智能显然是一种在各方面都与人类迥异但又更具有优势的智慧载体,显然人类整体上会面临种群替代的风险。这种种群替代的过程是渐进的。起初是人工智能与人类之间的相互融合,亲密无间,由于人工智能在早期既不具有严格的权利保护,又没有独立意识,并且大量功能是为人类专属设计。因此,人工智能可能是好工具、好助手、好朋友、好伴侣。随着人工智能的大量应用和广泛连接,人工智能的复杂度越来越接近和超过人类。人工智能就不再专属于为人类服务的工具,而是逐渐演化出个体的自我认知和权利意识,而人工智能对人类就业的大量替代和人工智能广泛参与到社会暴力种,也会加剧人与人工智能之间的关系紧张,人工智能就会进一步形成对人类的替代压力[[21]]。

   人类最后的底线不只是在经济上和管理上依赖于人工智能,而是在生育过程的纯粹性,也就是种群代际传递的纯粹性。然而近年来生物技术的发展,又逐渐打开了生命本身的神秘大门,人类开始能够通过人工手段帮助生育甚至编辑婴儿[[22]]。一旦人类能够习得这份技能,人工智能也将具有类似的能力。这就意味着,不但人类能够创造人工智能,反过来人工智能也能够通过基因编辑创造人类。双方在相互创造关系上的对等显然意味着人类作为单一智慧种群特殊地位的消失。那么,人类到底在哪些领域能够是人工智能所不能替代的,在这个问题的回答上,伴随着人工智能的发展,人类已经很难像以往那么自信。

   (十)文明异化

   文明到底是什么?人到底应该如何定义?人的最终归宿是什么?这些问题自古希腊哲学家提出后就一直萦绕在人类心头。如果把文明定义为智慧的表现形态和能够达到的高度,那么,显然文明的形态是具有多种可能的。尽管至今人类尚未有足够的证据证明存在外星文明,但是从人工智能的发展来看,显然提供了一种新的智慧载体和表现的文明形态。

   在这样的转型时期,人类是坚守狭义人类文明的界限,还是扩展对文明的定义和形态的认识,是今天人类所必须要面对的问题。如果承认文明是多种形态可能的,那么同样也就意味着人类文明不是最优形态的可能性存在。显然,这对于人类整体将是难以接受的。人类显然可能将经历一个较长时间的过渡和权利斗争,如对AI增强型人类,基因改造人类和人形AI有一个逐渐接受的过程,最终接受文明的广义形态。“我思故我在”,可能最终是文明的基本标准。

  

   三、人工智能治理的障碍与困境

  

   在今天文明转型的重大历史时刻,人类显然应该团结起来对人工智能治理做好准备,然而,在这一领域至今为止还存在着诸多障碍。

   (一)对人工智能的风险认识不充分,抱有幻想

   人工智能由于其飞速的发展,真正能够认识到人工智能整体风险的,往往是少数的科学家、企业家、政治家。而大量的社会个体,要么还未有足够的信息被告知其风险,要么则是对人工智能整体的发展盲目乐观,过度自信。的确,人类从未真正创造出和人一样甚至超过人的机器,因此,绝大多数人们也并不认为人工智能有一天会真的反过来超越人类文明。

   另外一种过于乐观的看法则认为,技术本身孕育着技术的解决方案,因此,当前人工智能的发展,今天看来难以治理的困境,在未来可能自然而然就解决了。这种观点本质上是对人类文明抱有乐观的态度从而采用自由放任的态度。然而,文明发展的“大筛选”理论可能意味着不是所有的文明都最终有良好的进化结局。因此,不能够用一种纯粹试一试的态度来面对未来显然的不确定性风险。

   (二)人工智能发展的透明性和可解读性不足

   从技术本身的角度,对人类而言,人工智能最大的治理困难在于其人工智能本身的复杂性远超过传统的程序。基于复杂神经网络进化策略而不是传统基于层级逻辑实现的方法意味着人工智能更多是进化而不是设计出来的。而今天动辄数百万节点甚至亿级别以上的人工智能系统意味着,人类能够实现人工智能,但人类并不真正理解人工智能。这就是人类面对人工智能的悖论,我们并不真正理解人工智能(当然,准确讲人类自己也没有真正理解人类智慧[[23]])。

   这种透明性的不足,导致了人类无论是对于人工智能的智慧进化水平,还是多人工智能的相互连接机制,以及人工智能对人类的态度的了解,都处于模糊的状态。这种模糊性导致了针对性的治理策略的制定困难。过早的政策制约显然会阻碍人类的技术发展,而过迟的应对则将使人类陷入危险之地。

   (三)技术研发和应用的盲目竞争

   近年来的人工智能飞速发展,背后的核心驱动是科技领域的高激烈竞争。这种竞争的直接表现是人工智能发展的相关企业之间的密集竞争。显然,在当今,各领域的龙头企业都看准了人工智能转型将是未来竞争力的核心要素。而人工智能研发的头部企业更将其看为整个科技研发的制高点。在这样的密集竞争下,使得人工智能的研发走上了一条无路可退的快车道。

   从应用的角度,近年来发达国家各行业人力成本的以及全球劳动保护和福利水平的增高,而发展中国家人力供给又远跟不上,全球制造业利润已经越来越微薄。因此,通过人工智能大幅度降低企业成本,显然可以极大增加企业的产品竞争力和增加利润[[24]]。在这样的驱动下,企业也有不顾一切尽可能的人工智能化的动机。

   (四)开源体系的知识无序扩散

   人工智能近年来在世界各国的飞速发展,还与近几十年来全球IT领域的开源运动相关。从上世纪80年代开始,以Linux操作系统为代表,全球IT领域就掀起了以免费、共享、参与为目的的开源运动。伴随着互联网的进一步深入,开源运动已经成为当前IT领域的最重要的驱动力量。在几乎从操作系统到硬件设计的所有领域,都可以找到开源的解决方案。这就为人工智能技术的扩散提供了极大便利。

   人工智能技术看似高深,但实际上其原理并不复杂。凭借开源运动,任何国家与企业的个体都可以通过下载已有的开源人工智能代码略作修改就可以开发自己的人工智能应用。因此,“不造轮子”而直接造车子,成为了当今人工智能发展的主流模式。在促进技术传播的同时,显然也增加了技术风险的扩散。例如恐怖主义分子可以很容易通过下载无人机的操控程序以及人脸识别和攻击代码从而组装攻击性无人机。其他的类似隐私搜集、网络攻击等则更是容易实现。

   (五)研究共同体的科研自组织伦理的不足

科研伦理是科研共同体自律和控制技术风险的第一环节。然而,由于科研伦理本身上是一个自我约束性道德体系,而缺乏法律的强制性。因此,在面对涉及到人类发展的重大科技突破时,(点击此处阅读下一页)


爱思想关键词小程序
本文责编:陈冬冬
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/123483.html
收藏