返回上一页 文章阅读 登录

高奇琦:全球善智与全球合智:人工智能全球治理的未来

更新时间:2019-09-08 19:36:05
作者: 高奇琦  
在人工智能时代,超级大公司对核心技术的垄断会更加突出。

  

   第四,在某些领域,智能革命对发展中国家可能有赋能效果,但整体来看,发展中国家与发达国家的差距可能进一步拉大。一方面,开源软件和新型学习方式有助于发展中国家的人才培养。现阶段,在与人工智能相关的许多工业领域,技术都是开源的。开源意味着后来者可以较为便捷地使用前人的研究成果,从而大大缩短追赶时间。在人工智能时代,高水平的教育资源的稀缺性会不断降低,人们获取知识的方式将更加便捷。例如,将直播技术和短视频技术用于知识学习,会产生非常好的效果。现在已经有一些教育产品正在投入使用,例如学而思网校。如果发展中国家的民众可以充分发挥人工智能的技术潜能,通过技术手段赋能学习,提高国家的整体教育水平和国民素养,就可能为经济发展打下扎实的人才基础。发展中国家可以在人工智能技术的赋能下,通过提高国民的教育水平,逐步提升国内治理能力,最终摆脱贫困状态。

  

   同时,智能革命的制度化还有助于发展中国家克服传统文化的束缚。人工智能的相关技术有助于一些传统问题的解决。汉斯·汉森 (Hans Hansen) 和托尼·波特 (Tony Porter) 的研究指出,在埃博拉出血热等疾病的防治过程中,手机和大数据技术堪称关键。手机有助于人们发送与协调相关的工作信息,而对呼叫数据记录的分析有助于流行病学家追踪疾病的传播。将基于人工智能的解决方案引入发展中国家,可以在很大程度上减少传统人为因素的干扰。人工智能可以克服人类智能对情感因素的过度倚重,可以帮助传统社会向法理型社会转型。发展中国家的落后在很大程度上是文化的落后,而人工智能的机器理性有助于对冲传统文化的影响。例如,许多发展中国家都受到腐败问题的困扰。如果通过信息系统、电子化支付或移动支付等手段,将所有的交易记录下来,那么传统的腐败机会就会大为减少。当然,在这种制度化的过程中,发展中国家需要在国外经验与自身文化之间寻求平衡。

  

   另一方面,智能时代的来临可能会导致国际分工的终结,从而使得发达国家和发展中国家的差距进一步拉大。首先,国际分工的基础是劳动分工。不同国家拥有不同的资源禀赋,发达国家拥有先进技术,但是缺乏劳动力,而发展中国家恰恰可以提供充足的廉价劳动力。因此,发展中国家获得了参与国际分工的机会,并借此取得了劳动力素质提高等基础性资源,再通过技能外溢和技术升级,进一步从整体上提高国家实力和劳动力素质。然而,人工智能的发展却很可能摧毁这一分工基础。发达国家逐渐意识到,使用机器人的成本在很大程度上低于维持人力资源的成本。在一些发展中国家,劳动力的成本最初非常低廉,但是在全球化的进程中,随着这些发展中国家劳工标准和福利水平的提升,劳动力成本也会随之上升。相较而言,人工智能的成本更加可控。机器在某种程度上削弱甚至排除了发展中国家参与国际分工的可能。显而易见,如果未来人工智能技术发展到较高水平,发展中国家在国际分工中承担的劳动密集型分工可能会被逐渐替代,很难再参与到先前的国际分工之中。正如埃里克·布莱恩约弗森 (Erik Brynjolfsson) 和安德鲁·麦卡菲 (Andrew McAfee) 概括的那样:“从长期来看,自动化影响最多的可能不是美国和其他发达国家的劳动者,而是以低成本劳动力作为竞争优势的发展中国家。”

  

   发展中国家停止参与国际分工会进一步拉大南北国家之间的技术鸿沟。发达国家在人工智能等新技术上构筑的壁垒会越来越高,不发达国家通过参与和学习进入“中心地带”的可能性也会越来越小。大数据的有限入口产生了新的数据鸿沟,而大型数据公司对数据则拥有绝对的垄断性权力。大数据依靠技术在全球运营,以新的方式遮蔽和混淆权力。随着国际事务中大数据的实际影响不断扩大,必须采取有效的方式来应对权力关系的变化。实际上,人工智能发展导致的新的不平等可以理解为人工智能的异化。卡尔·马克思 (Carl Marx) 认为,科学技术出现了异化,其根源是“机器的资本主义应用”。马克思强调:“同机器的资本主义应用不可分离的矛盾和对抗是不存在的,因为这些矛盾和对抗不是从机器本身产生的,而是从机器的资本主义应用产生的!”人工智能异化造成的不平等不仅会出现在资本主义社会内部,还会外溢到国际分工体系之中。因此,尽管发展中国家可以得到人工智能发展的一些技术红利和后发优势,但是由于人工智能本身是高端前沿技术,而发展中国家缺乏足够的人才储备,其与发达国家的差距可能会越来越大。

  

3.西方主导的人工智能全球观念结构

   目前,全球人工智能相关的法律法规、政策和原则主要是由西方发达国家定义的。发展中国家的话语权非常微弱,甚至无法参与相关讨论。例如,西方发达国家的一些大公司在规则定义上就具有主导权。“阿西洛马人工智能23条原则” (以下简称阿西洛马原则) 是近年来最具影响力的人工智能原则。尽管阿西洛马原则声称其是由近千名人工智能与机器人领域的专家联合签署,但细究之下便会发现,这一原则的主要推动者仍然是马斯克这样来自西方国家的企业家。阿西洛马原则的一些宏观内容是基本正确的。例如,“研究目标”强调“有益的智能”,第6条强调“人工智能系统的安全性”,第7条强调“故障的透明性”,第8条强调“审判的透明性”,第11条强调“人类价值观”,第14条强调“共享利益”,第15条强调“共享繁荣”,这些都是普遍认可的原则共识。

  

   但是,阿西洛马原则仍然存在一些问题。

   其一,该原则暗含了发展通用人工智能甚至是超 (高) 级人工智能的目标。在该原则的第9条和第10条中,都强调了“高级人工智能和高度自主的人工智能系统是可以被设计的”。第16条尽管强调“人类应该选择如何以及是否代表人工智能做出决策以实现人为目标”,但是这种表述也暗含了可以让人工智能自主决策的可能性。此外,第17条强调“不能终止或颠覆高级人工智能的权利”,第19条则强调“不能给未来人工智能的性能发展设置上限”,第20条强调“高级人工智能可以反映地球生命历史的深奥变化,应该予以支持”。这里的通用人工智能 (general AI) 是相对于专用人工智能而言的。专用人工智能也被称为模块化人工智能 (modular AI) ,其在特定领域拥有专业知识,能够通过实践学习提高性能。相比之下,通用人工智能可以更灵活地运用自身知识来处理一系列更为抽象、没有领域限制的问题,包括那些需要理解意义和价值的问题。

  

   简言之,专用人工智能是局限在某一领域的人工智能,通用人工智能则是指力图在整体上具备类似于人的综合问题解决能力的人工智能。人们往往把通用人工智能称为强人工智能,而通用人工智能的下一个发展阶段便是超 (高) 级人工智能。如果说通用人工智能的目标是等同于人,超 (高) 级人工智能的目标就是培养超过人类智能的人工智能。牛津大学的尼克·波斯特罗姆 (Nick Bostrom) 将超级智能定义为:“在几乎所有领域远远超过人类的认知能力。”波斯特罗姆还将超级智能分为如下几类:高速超级智能,该系统可以完成人类智能可以完成的所有事务,但是速度更为迅速;集体超级智能,该系统由数目庞大的小型智能组成,在很多领域的整体性能都会显著超越现有的认知系统;素质超级智能,其速度与人脑相当,但在聪明程度上相比人类具有巨大的、质的超越。许多专家对超级人工智能的发展表现出担忧。例如,有观点认为人工智能的成功可能意味着人类的终结。在“错误的手”中,任何技术都有造成伤害的潜在可能性。对于人工智能和机器人技术来说,新问题是“错误的手”可能就是技术本身。

  

   其二,对于人工智能的潜在风险,阿西洛马原则主张自我修复。第21条和第22条涉及未来人工智能造成的风险。其认为,人工智能可以承担自身发展带来的风险,可以通过递归的自我改进和自我复制来加以控制和完善。简言之,这两条原则反对人类通过外在干预来控制和调整人工智能的发展。在西方国家的人工智能发展过程中,弥漫着一种工程师决定论的思维。正如约翰·马尔科夫 (John Markoff) 所描述的那样:“今天,设计基于人工智能的程序和机器人的工程师们,将会对我们使用程序和机器人的方式产生巨大影响。”

  

   其三,阿西洛马原则并未就如何行动给出详细方案和路径,这将导致原则可能在实践过程中变形。第18条尽管提出了“应该避免一个使用致命性自主武器的军备竞赛”,但是并未给出实现路径。缺乏明确路径将导致这一原则沦为空谈。另外,第11条强调“人类的价值观”,即人工智能系统的设计和运作应该符合维护人类尊严、权利自由和文化多样性的理念。但是在实际操作中,由于人工智能的系统设计以及话语权都掌握在少数发达国家手中,因此其中蕴含的价值观很有可能是少数发达国家的主流价值观,而不是人类整体的多样性价值观。类似问题同样存在于第14条、第15条和第23条中。当涉及共同利益、共享繁荣等内容时,就会出现宏观原则与实际操作之间的问题。

  

   在阿西洛马原则之外,谷歌在2018年发布了人工智能原则,其内容包括: (1) 对社会有益; (2) 避免制造或加强不公平的偏见; (3) 确保并测试安全性; (4) 对人负责; (5) 纳入隐私设计原则; (6) 坚持科学的卓越标准; (7) 提供符合这些原则的用途。英国上议院特别委员会在2018年4月发布了人工智能代码五项原则,内容包括: (1) 人工智能的开发应该是为了人类的共同利益; (2) 人工智能应该遵循可理解性和公平性原则; (3) 人工智能不应该被用来削弱个人、家庭或社区的数据权利或隐私; (4) 所有公民都应该有权接受教育使他们能够在精神、情感和经济上与人工智能并驾齐驱; (5) 永远不应赋予人工智能伤害、摧毁或欺骗人类的自主权力。其中,第五条尽管看起来是在保护人类,但实际上从另一个角度确认了人工智能的自主性。欧盟在2019年发布了人工智能伦理指导方针,包括七点原则:人类代理和监督、技术稳健性和安全性、隐私和数据管理、透明度、多样性、环境和社会福祉以及问责制。比较而言,欧盟人工智能伦理指导方针的进步性在于其强调:“人工智能不应该践踏人类的自主性。人们不应该被人工智能系统操纵或胁迫,应该能够干预或监督软件所做的每一个决定。”然而,这仍然是一个被动原则。在某种程度上反而确认了人工智能系统的自主性。

  

   从更深层次来看,伦理规范是现实政策、法律与其他相关原则的基础,而目前人工智能领域最具影响力的伦理规范是由西方国家和社会主导定义的。其中最典型的代表是美国科幻小说代表人物艾萨克·阿西莫夫 (Isaac Asimov) 提出的“机器人三法则” (下文简称为阿西莫夫三法则) 。这一法则尽管由阿西莫夫在科幻小说中提出,但是前述原则几乎都可以视为这一法则的进一步适用或延伸。阿西莫夫三法则的内容是:第一法则,机器人不得伤害人类,或坐视人类受到伤害;第二法则,除非违背第一法则,否则机器人必须服从人类命令;第三法则,除非违背第一或第二法则,否则机器人必须保护自己。

  

阿西莫夫三法则本身是非常矛盾的。第一法则强调机器人的主体性。其强调“机器人不得伤害人类或坐视人类受到伤害”,这意味着把机器人当成独特的法律或者伦理主体。(点击此处阅读下一页)

本文责编:sunxuqian
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/118104.html
文章来源:国关国政外交学人
收藏