返回上一页 文章阅读 登录

何怀宏:人物、人际与人机关系——从伦理角度看人工智能

更新时间:2018-08-11 22:13:37
作者: 何怀宏 (进入专栏)  
如果它们真的发展起一种基于自我意识的全面判断和行动能力,那也一定不是建立在这种肉体感受性和有死性基础上的人的自我意识,那将是我们无法知晓的一种自我意识。我们与它们无法像人与人之间那样“感同身受“”设身处地”。

   而人类最好把价值判断留给自己,这也是保持一种人类对机器人的独立性乃至支配性。我们不能什么都依赖智能机器,把什么都“外包”给机器。如果说,我们最好不要让多数人在人工智能的领域内太依赖少数人,我们就更不要让全人类在智能、在精神和价值判断的领域里依赖机器。人类将自己的价值判断完全托付给机器之日,大概也就是人类灭亡之时。我们最好让机器人始终保持它们“物”的基本属性。人所能做的甚至只能做的可能就是限制它们的手段和能力,而不是给它们建立一套以人为中心的价值体系。

   它如果真的掌握了价值判断和建构的能力,恐怕它很快就要建立自己的价值体系,那是人类不易知晓其内容的“价值体系”或者说它自有的“目标体系”——就像专家们连对现在在智力竞赛中夺冠和战胜棋类大师的机器人的具体计算过程其实也不太知晓,其间还是有不少“黑箱操作”。而如果机器有了“心灵”,那将是更大的“黑箱”甚至整体的“黑箱”。

   所以,笔者考虑是不是至少首先在民用机器人的层面上,可以对阿西莫夫的三规则采取另一种思路,即不是做加法,而是做减法,而且缩减到极简,就是一条:机器人不得伤害任何人,也就是原来三规则中第一规则的前半条。甚至我们可以更明确一点,不得伤害也就是不得对人使用暴力,这暴力包括不得使用强制的手段限制人的自由,比如强行禁锢人、不让人离开或者像《机械姬》那样锁闭人。

   我们可以考虑让这“非暴力”成为一个不可撼动的原则,成为所有机器人的最初始的、不可修改的禁止密码,任何次级的应用和制造机器人都修改不了这一密码。如此,人们的确也就可能从机器那里失去许多便利和期望,比如说不能制造和使用能够保护自己的“机器保镖”,因为问题是:如果好人能够使用这些机器的暴力,恶人不是可以更放肆地使用?

   当然,机器人还是可以成为救助人的强大工具。当人受到伤害时,机器人还是可以有所作为,只是救人也不得使用暴力。它可以帮助人逃走,可以成为一个极其灵敏和迅速的监测和报警系统,让罪犯不可能隐瞒和逃逸,让犯罪的人必须付出代价和受到惩罚。这样它就还是在帮我们。我们还是有一个强大的安全助手。但我们不能让机器人出手。暴力的使用要始终掌握在人的手里,这也是人应该承担的责任。也就是说,机器人不介入任何暴力,与任何暴力绝缘,甚至不知暴力为何物。它就是一个完全和平的“动物”。

   至于在国用机器人的层面,可能无法直接使用这一条禁令。因为国家就是暴力,国家不可能没有暴力,对国家机器无法排斥暴力的使用。但我们还是可以区分国用机器人的两种使用,一是国内的使用,二是国际的使用。可以考虑首先在国内的使用中禁止任何可以杀人的暴力机器人,而在杀人机器的国际使用上,则首先力求小型化、专门化。据说前几年就已经有56个国家在研究杀人机器人,具有智能的杀人机器如无人机和杀人蜂已经研制成功甚至投入使用。这样,如果在民用机器人方面应该禁止一切暴力,在国家层面目前看来就事实上难于禁止,国家不使用这种暴力,也会使用那种暴力。但至少可使其专门化、小型化,不成为大规模杀人武器。

   也有不少人呼吁完全禁止研究和开发杀人机器人,但只要有一个大国拒绝,其他国家似乎也就不会停止。但我们至少可以考虑一些预先的禁令和逐步的限制。比如禁止杀人机器人向大规模杀人武器方向发展,只允许一些已经存在的小型化、专门化、针对性强的杀人机器人暂时存在。当然,像排雷机器人、拆弹机器人自然是可以存在的。国家之间,尤其从大国开始,还可以考虑签订一些诸如防止核扩散、禁止生化武器那样的条约。这毕竟不是没有先例的,像毒气在一战期间就被研制出来并使用,但之后还是实际被禁用,包括在残酷的二战中。

   我们无法完全禁止国家对暴力的使用,毕竟国家本身就意味着一定地域内对暴力的垄断。但负责任的国家,尤其是大国,应该考虑遏止一些不负责任的国家或恐怖组织对杀人机器人的研制和使用。

   当然,这只是一个思路,甚至可能是一个天真的思路。因为人性中有根深蒂固的各种各样的动机,不仅资本牟利的动机,集团和国家私利的动机,乃至科学家出于知识的好奇动机,都可能使对机器人能力和手段的限制归于无效。

   但愈是如此,规范也就愈加不能复杂化。笔者尝试提出的上述规范的确显得非常简单,但可能唯其简单,才比较可靠。规范必须简单和明确,而且最好是禁令,以减少甚至免除机器人判断的负担,这也是限制它们的能力。禁令比正面的指令的可行性要大得多。价值动机难于控制和植入培养,但行为却好控制得多。机器的判断会在计算可量化的利益和概率方面比较擅长,但人的感受、感情等诸多因素是很难量化和计算的。

   所以,我们可能不宜放弃并优先考虑这一思路,或者说,至少可以考虑先在所有民用机器人的层次上实行“禁止任何机器暴力”的原则。我们也许还应该有意让人工智能变得“笨”一些,即有意地让它们的功能比较专门化、小型化,限制它们的自主意识和综合能力,防止它们向超级通用智能的发展。

  

处理人机关系的关键仍在人际关系

  

   我们上面重新从伦理角度回顾和考虑人际关系和人物关系,也都是因为人机关系的挑战。

   再比较一下人物关系和人机关系,这两种关系在某些方面是类似的,即目前的物和机都是没有自我意识的,和人类处在一种强弱不等甚至力量悬殊的地位。但这两种关系又有不同,关键的差别是智能机器同时具有人和物的两种属性:它们一方面还没有自己的自我意识,还是人的造物;但另一方面,它们又已经具有一部分人的属性和能力,尤其在算法上比我们更快、更强,未来还可能全面地超过我们。

   我们对动物的直接支配是通过驯养,在千百年来改变了它们的性格之后,我们现在通过简单的语言和动作就能指挥它们,即便是对猛兽的驯养,有时万一失控也不会对人造成大的灾难。而我们对机器的支配则是通过各种程序和指令,如果一旦失控,就有可能全盘皆输。就像一些学者所警告的,我们可能只有一次机会,如果处理不慎,智能机器就将是人类“最后的发明”。

   人物关系的伦理主要是考虑:在一种强对弱的地位上,我们应该怎样善待动物等其他外物?而人机关系的伦理则主要是考虑:虽然目前我们对它们还是处在强对弱的地位,但未来有可能强弱易位。在一种预期它们将会怎样对待我们的基础上,我们要考虑我们现在应该怎么办?我们可以对它们做些什么?但一个很大的困境是:虽然目前我们对它们的态度有赖于未来它们对我们的态度,但恰恰是这一点我们很不清楚甚至可以说无法预期。

   当然,我们虽然是考虑对智能机器的态度和规范,但我们所能采取的行动其实还是首先要在人际关系中用力:人们需要提出各种问题和对策,需要互相说服和讨论,需要造成一种关注人工智能的各个方面的社会氛围,需要深入考虑人类整体的利益。

   但这里可能还是会有一个“关键的少数”在关键的时刻起最大的作用。这个关键的少数包括:科学家和技术专家们,他们是在人工智能研发的第一线;出资研究人工智能项目的企业家、资本家们,他们往往可以决定研发的方向;政府的官员和首脑,他们决定或管理着人工智能的政策、法规,包括在某些时候需要作出决断;知识分子们,包括文学艺术家们,他们探讨人工智能的性质及其对人的各种可能影响和后果。大多数人可以也应该共享人工智能的成果,但他们或许只能“乐成”而无法“虑始”,对可能的“达摩克利斯之剑”也是如此。当年核武器的研发和使用并不是多数人投票决定的。

   也许人们还是能够给智能机器建立一套安全可靠的价值观念系统,但在真的找到一个妥贴的办法之前,我们还是需要谨慎。最好先不要让机器太聪明、太复杂、太自主,将智能机器的能力限制在单纯计算或算法的领域,限制在工具和手段的领域。如果机器有自我意识和情感,可能会觉得这很不平等、很不公平,但为了人类的生存,这也是没有办法的。

   人类本来也应该早就控制自己。如果时光倒流,人类或许应该更多地考虑人类精神文化能力包括控己能力的发展,而放慢人类控物能力的发展。我们已经吃惊于现代文明发展的力量和速度。

   在前文明阶段的人类,是通过发展的缓慢来客观上加长人类历史的。而农业文明阶段的传统社会,虽然发展的速度已经很快,但主要是通过一种时空的循环来延长人类的历史。这种时空的循环有理论和观念的支持,其实际的表现是:在时间方面是王朝在同一地域的不断更迭,在空间方面则是文明帝国在不同地域的此起彼伏。但在人类进入工业文明之后,在进化论和平等主义的推动下,以及在世界全球化的背景下,一种对发展速度和力量的客观控制已不复存在。尽量让智能机器小型化、专门化和尽可能的非暴力化,可能是我们目前的最佳选项。

   近年的一部电影《我,机器人》,可以说对智能机器的通用化和暴力化提出了一个形象的警告。影片中,最新一代的机器人获得了超强能力之后又获得了自我意识,主控电脑开始对阿西莫夫的三规则有了自己的解释,它觉得自己能够比人类自身更好地判断人类的利益,于是发出了指令,让新版机器人去杀死旧版机器人,并强制性地将人类禁锢起来,杀死反抗者。电影里的一个警察主管不无讥讽地说:“我们将怀念过去的美好时光:那时候只有人杀人。”

  

  

本文责编:陈冬冬
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/111555.html
文章来源:《探索与争鸣》2018年第7期
收藏