返回上一页 文章阅读 登录

何哲:人工智能技术的社会风险与治理

更新时间:2020-11-10 21:39:08
作者: 何哲  
往往自组织伦理会远落后于技术发展,从而失去约束,力不从心。

   从目前人工智能研发的伦理体系而言,从上世纪八十年代开始,陆续就有一些国家的人工智能研发机构订立了相应的人工智能开发原则[[25]],其基本的原则就是不能研发伤害人类的人工智能。显然,科研界对人工智能风险是有一定程度的估计的。然而,这种科研约束体系显然当面临巨大的经济、商业和战略上的利益时,就无所约束。

   (六)国家间的战略竞争—人工智能应用特别是军事化的巨大潜力

      人工智能治理所面临的最大的治理障碍还在于国家与国家之间围绕人工智能形成的国家竞争。从目前的全球各主要国家发布的政策来看,世界主要大国无一不将人工智能视为未来主要的国家竞争优势。因此,主要大国无一不尽全力发展人工智能,并保持对主要战略对手的优势。

   当前人工智能所展示出的高效率、高可靠性、低人力成本等优势,对于改善一国的经济、管理、科技和军事等方面,显示出巨大的潜力。特别是人工智能在军事领域的应用,将极大增加一国军事能力并减少伤亡,从而将形成巨大的常规武器优势。因此,尽管世界各国都认识到人工智能可能具有高度的风险[[26]],并且也发生了主要承包企业科学家抗议并退出项目的事情发生,但毫无例外并未阻止各国全力发展人工智能的军事化应用。

   因此,当前人工智能的态势,很类似于人类曾经经历过对核武器的控制态势。尽管当第一个原子弹爆炸之后,核科学家就一致发起请愿永远不运用在实战领域并保持对核武器的控制。然而,世界主要国家还是尽全力发展。直到今天,全球核武器不是被严格控制而是潜在与事实上的拥核国家已经达到了两位数。这显示出人类对于核武器扩散的控制实际上是失败的。这其中根本的原因就在于复杂的国际环境和全球缺乏一致的协调,国家竞争优势大于全人类的安全[[27]]。然而,在面临人工智能时,人类将面临着更为复杂的环境。因为人工智能比核武器在表象上更加缺乏破坏性,更加安全,并且更加容易复制,且对于国家优势增加的更为明显。因此,全球竞争毫无疑问的增加了人工智能的过度进化和扩散风险。

  

   四、尽快推进和完善人工智能全球治理架构

  

   从当前的趋势来看,人工智能的持续发展已经是一个完全不可逆的过程,考虑到人工智能所具有的潜在高风险,因此,全人类必须要高度重视,推动人工智能的全球治理体系构建。

   (一)推动人工智能技术的风险共识

   显然,在今天的各个领域,特别是在主要的政治、商业和科学领域,其领导者要充分认识到人工智能所具有的潜在的风险。这种对人工智能风险的认识,决定着社会精英在制定相应政策时所采取的微妙态度。

   推动对人工智能风险的共识,既需要社会广泛的宣传、探讨和沟通,也需要对全人类共同的巨大的责任意识。在这一过程中,要避免人工智能技术被政治竞争和资本竞争所绑架,从而陷入了盲目的发展境地从而导致不可挽回的后果。整个知识界首先要高度警醒,尽力推动其安全风险教育和警示,这不仅需要人工智能专家自我的觉醒,也需要其他领域,特别是社会学科知识精英的高度敏感性,从而竭尽全力将技术的发展纳入到有序的轨道。

   (二)共同推进人工智能研究的透明性和可解读性研究

   人工智能构建和训练的便宜性使得人们忽视了人工智能透明性和可解读性的重视,从而加剧了风险的增大。然而,这并不意味着人工智能完全不具有透明性和可解读性。将所有的功能完全交给复杂网络自我进化以实现人们预期的功能,是造成人工智能透明性和可解读性下降的重要原因。因此,这就要求在人工智能设计上要避免以复杂的堆叠为唯一思路,从逻辑主义到连接主义的混合策略将是改善透明性和可解读性的重要方式。

   此外,不仅技术本身应是透明和可解读的,研发机构对于公众和政府也应该是透明的。这就要求人工智能研发的机构要频繁的定期向公众和监管机构报告其研发的进程,从而使得社会多方面可以参与到人工智能的发展进程监控中。

  

   (三)推进全球科研共同体尽快形成人工智能研究自我伦理体系构建

   伦理虽然不是法律,但是伦理是制约个体行为的重要依据。在当前,显然应该尽快通过全世界的科研体系建设和沟通,形成全球人工智能科研共同体的伦理体系。这包括对人工智能武器化的谴责,对人工智能与人体结合的谨慎(例如脑接口),对人形机器人开发的约束等。

   在科研伦理的设置上,不能延续以往的法无禁止皆可为的自由主义准则。因为,在今天的科技发展,已经接近了足以颠覆人类社会的边缘。人类的前途和命运更多是取决于科学家手里的研究而不是政治家或者企业家的意志。因此,显然整个科研共同体应该更为谨慎。具有半强制性的全球人工智能科研伦理委员会的建构,应该成为世界各国科研共同体当前所面临的共同的迫切任务,从而通过这一委员会来小心翼翼的控制相关研发不超过基本的伦理边界。当然,这种全球协作机制应该避免国家意志的操控成为国际政治角逐的工具。

  

   (四)推进各国完善人工智能国内立法

   伦理体系属于科研共同体的自我治理,反映的是科研精英的群体认知。而法律则不同,法律反映的是大众意志和国家意志。因此,法律是捍卫社会利益的最后底线。从人工智能的研究而言,其绝不能仅是相关IT研究人员的自我协作和监督,由于人工智能研究的重大历史和社会意义,必须要纳入到全社会共同的关注和国家监管之下。

   从各国立法而言,在政府大力推动人工智能发展的同时,世界各主要国家的立法机构都对人工智能的治理问题进行了相应的立法准备,例如美国两院于2017年底提出的《人工智能未来法案》,欧盟亦在2018年起就动议对人工智能进行立法。然而,由于当前人工智能发展速度过快并且外界对其进展知之不深,并且其还未产生重大的危害性事故,因此,其约束性立法还未有明确形成。显然,从全球各国的立法来看,面临着互相观望同时又受到国内多方面博弈的局面。单方面的自我立法设限,显然会有损于国家竞争优势的构建,所以,从国内立法的角度,只能寄希望于在若干重大原则性问题进行规制。

  

   (五)推进全球合作立法和共同监督机制建立

   作为当前人类所共同面临的两大核心技术风险之一的人工智能技术(另一个是基因编辑技术)的有效治理,人类必须要构建起共同的合作治理机制从而才能面对共同的技术风险。否则,由于人工智能技术的高流动性和扩散性,人工智能研发企业很容易从监管更严的区域迁移向没有监管的国家从而规避管制。

   而从治理的目的而言,全球合作则显然至少达到以下目的,一是阻止人工智能的在军事领域的滥用;二是建立对人工智能的进入人类社会的监测与评估,防止人工智能对人类进行过度的改造;三是评估人工智能的进化进程,从而做好人类的安全防范。

   然而,从现实角度,在订立防止过度开发与滥用的机制上,各国显然面对一个复杂的多方囚徒困境局面,即如果对方遵守协议而自己优先发展,就可以获得更大的国家竞争优势。在这种情况下,全球合作治理也显然是困难的,但这并不意味着无法实现。当全球越来越多的精英和大众认识到人工智能可能带来的巨大风险时,势必会促成全球形成对人工智能共同的管制策略。这一机制由于其重要性,应该在联合国安理会主导下建立而不只是目前一些科研机构或者少数国家自发的形成。当然,在这一过程中,需要发达大国更具有人类责任心,率先推动这一机制的实现。

  

  

   五、结论

  

   从人工智能的特征和发展来说,人工智能技术在具有高价值的同时,对人类具有巨大的潜在风险,这些风险从低到高包括包括:隐私泄露、劳动竞争、主体多元、边界失控、能力溢出、惩罚无效、伦理模糊、暴力扩散、种群替代和文明异化,应足以引发人类对人工智能发展的高度警惕。从整个社会而言,要做好至少五个方面的准备:一是尽快取得人工智能的风险共识;二是尽快增加人工智能的透明性研究;三是规范科研共同体的自我约束;四是推动各国尽快立法;五是加快建立全球协作治理机制。

  

   文章来源:《电子政务》,2020年第9期。

  

   参考文献

   [[1]]何哲.通向人工智能时代——兼论美国人工智能战略方向及对中国人工智能战略的借鉴[J].电子政务,2016(12).

   [[2]] 谭艳.《禁止核武器条约》:特征、目的和意义[J].国际法研究,2020(3).

   [[3]] 霍金. 人工智能可能使人类灭绝[J].走向世界,2015(1).

   [[4]] Shalf John. The future of computing beyond Moore's Law.[J]. Philosophical transactions. Series A, Mathematical, physical, and engineering sciences,2020,378(2166):20190061.

   [[5]] 董俊林.H.西蒙与国际象棋[J].自然辩证法通讯,2013(4).

   [[6]] Vinge, V.  The coming technological singularity: How to survive in the post-human era[J]. Science Fiction Criticism: An Anthology of Essential Writings, 1993:352-363.

   [[7]] Ray Kurzeil. 奇点临近[M]. 机械工业出版社, 2011,p80.

   [[8]] 数百位专家预言:人工智能45年内将全面胜过人类[N].搜狐网,2017-6-5.

   [[9]] 美科学家:人工智能将在2029年超过人类[J]. 电子世界, 2016 (7).

   [[10]] 马特.无隐私即无自由——现代情景下的个人隐私保护[J].法学杂志,2007(5).

   [[11]] 倪蕴帷.隐私权在美国法中的理论演进与概念重构——基于情境脉络完整性理论的分析及其对中国法的启示[J].政治与法律,2019(10)周健.美国《隐私权法》与公民个人信息保护[J].情报科学,2001(6).

   [[12] ]霍布斯鲍姆.重新思索捣毁机器的工人[EB/OL],搜狐文化,2015-12-22.

   [[13]] 何哲. 人工智能时代的人类社会经济价值与分配体系初探[J]. 南京社会科学, 2018(11).

   [[14]] 吴珍发,赵皇进,郑国磊.人机任务仿真中虚拟人行为建模及仿真实现[J].图学学报,2019(2).

   [[15]] 于琳,丁社教.马克思与涂尔干社会分工思想谱系的异同与会通[J].江西社会科学,2020,40(2).

   [[16]] 潘卫军.现代柔性制造技术及其发展[J].装备制造技术,2007(12).

   [[17]] 刘洪华.论人工智能的法律地位[J].政治与法律,2019(1).

   [[18]] 杨庆峰.从人工智能难题反思AI伦理原则[J].哲学分析,2020(2).

   [[19]] 张敏,严火其.从动物福利、动物权利到动物关怀——美国动物福利观念的演变研究[J].自然辩证法研究,2018(9).

   [[20]] 武晓龙,夏良斌,刘峰.美国人工智能军事化研究和进展分析[J].飞航导弹,2020(4).

   [[21]] 何哲.人工智能时代的人类安全体系构建初探[J].电子政务,2018(7).

   [[22]] 陆群峰.人类基因编辑的伦理问题探析[J].自然辩证法研究,2020(1).

   [[23]] Zerilli, John, et al. Transparency in algorithmic and human decision-making: is there a double standard?[J] .Philosophy & Technology 2019 (4): 661-683.

   [[24]] 胡俊,杜传忠.人工智能推动产业转型升级的机制、路径及对策[J].经济纵横,2020(3):

   [[25]] 杜严勇.机器人伦理研究论纲[J].科学技术哲学研究,2018(4).

   [[26]] 黎辉辉.自主武器系统是合法的武器吗?——以国际人道法为视角[J].研究生法学,2014(6).

   [[27]] 王政达.美国对国际核秩序的侵蚀与弱化[J].国际安全研究,2018(2).

  

  


爱思想关键词小程序
本文责编:陈冬冬
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/123483.html
收藏