返回上一页 文章阅读 登录

徐英瑾:让智能系统成为伦理主体

更新时间:2015-12-18 10:53:48
作者: 徐英瑾  

   问题的真正解决思路,似乎不在于如何从外部的立场出发,去给人工智能系统“立法”。更值得推荐的思路,或许是让智能系统成为真正的伦理主体——或者说,让伦理性内植于机器自身的程序之中,概而言之就是,将人工智能研究升级为人工伦理研究。

   从霍金的警告到罗素的倡议

   最近,天体物理学家霍金向世人发出警告,说超级人工智能已经对我们人类的生存构成了威胁。此言一出,引发各地媒体纷纷转载。不得不承认,笔者最早听闻这一报道之时,多少觉得有点不以为然。其一,霍金虽是科学界旷世奇才,但其对于人工智能的评论却属于明显的“跨界”言行,其“博眼球”的成分或许已压过了此类评论所应有的专业色彩。其二,人工智能技术当下的发展虽说的确很快,但其是否已经达到了逼近人类智能的地步,却还很难说。严格地说,最近的人工智能技术的进步,主要得益于硬件性能方面的日新月异。譬如,配上了更好的传感器以及更烧钱的数据处理系统的自动驾驶系统,的确可以使自己显得更为“灵敏”;拥有更大的数据库的专家系统,亦可以由此使得自己显得更为“博学”(如几乎无事不知的IBM公司的“华生”系统),等等。然而,在基本的算法层面,最近十年来人工智能界是否取得了某种堪比上世纪80年代“人工神经元网络技术”之兴起的重大科学突破,则颇为可疑(更何况即使是这一“突破”所具有的科学意义到底有多大,学界的意见也是见仁见智)。在此背景下,过分炒作人工智能研究所带来的伦理学风险,是不是有点杞人忧天呢?

   然而,最近计算机业界所发布的一封公开信,则提醒笔者注意到了人工智能研究中牵涉的伦理学问题所具有的复杂性。这份公开信的标题是“关于靠谱的和有益的人工智能研究所应具有的优先性”(网址:http://futureoflife.org/misc/open_letter),发起人是美国加州大学伯克利分校的资深人工智能专家斯图亚特•罗素(Stuart Russell,请读者别和英国大哲学家伯特兰•罗素混为一谈)。应当看到,此信并未像霍金的警告那样充满了对于人类未来的一边倒的悲观色彩,而是充分肯定了人工智能研究对于提高人类生活质量所具有的巨大潜力。但是,公开信也提醒读者注意此类研究所具有的“双刃剑”效应,并积极呼吁伦理学家和人工智能专家合作,兴利除弊,将人工智能的发展所可能带来的负面效应缩至最小。这也就构成了笔者构思这篇小文的由头。

   人工智能研究的四条伦理学规范

   前面笔者已经提及,现有的人工智能系统的“智能”其实都带有隐喻色彩(甚至是商业炒作色彩),因此,很多被冠以“人工智能”的研究其实都是对于一般的计算机软件编程工作的“借壳上市”而已。但是罗素等人的公开信则提醒笔者注意到,即使是这个层面上的人工智能研究,也已经对人类现有的伦理和法律体系构成了不同程度的冲击。譬如,即使是目前不那么智能的智能系统的大规模商业应用,也必然会为劳动密集型企业之生存带来灾难性的威胁(这一点对于第三世界国家而言尤为严重)。这样一来,被机器取代的劳动力的就业出路在哪里?此类人工智能产品的运用,会不会进一步加大人类业已存在的严重的财富分配不公的问题,并从而导致更为严重的社会与政治问题?又比如,大量的计算机统计技术在金融、保险、股市等领域内的运用,会不会导致“未来”变得过于“透明”,而使得相关行业的获利空间不断被压缩以至于趋近于零?又比如,用人工智能技术武装起来的自动驾驶系统一旦出现事故(在这里我们必须预设任何人造系统都会有大于零的事故率),到底由谁来负责,是机器的产权拥有者,还是生产商?而此类机器的生产商又应当承担多少先天的伦理责任,以尽量降低系统产生对人类有害效应的概率呢?请别忘记了,生产商承担的此类责任越多,产品的售价就会越高,而人工智能产品就越有可能被富足阶层所独占——而这种独占本身又会产生另一类伦理学问题。再比如,我们该如何恰当地评估人工智能技术的军事运用所必然带来的伦理、法律与政治后效呢?一方面,我们似乎有很明确的伦理理由去将现有武器“人工智能化”——因为这样的技术升级显然能够使得军事打击变得更为精准,己方伤亡更少,并由此使得战争更为人道;但另一方面,人工智能带给武器的“自主性”对于现有的层级分明的军事指挥体制却是一个巨大的挑战,譬如:人类指挥官如何能够保证其机器人下属不会按照自己的理解去误解其军事指令?甚至我们还可以设想:如若敌对双方的军队都装备了大量具有此类基本自主性智能的军事装备的话,发生人类指挥员所不可预测的偶然性军事冲突的几率是不是反而会被提升呢?

   面对这些错综复杂的伦理学问题,罗素等人的建议是在人工智能的研究中树立四条规范性标准,以使得技术的运用不至于出现失控的状况。这四条标准分别是:“可验证性标准”,即保证设计出来的系统的确能够执行人类希望其执行的任务;“有效性标准”,即保证设计出来的系统肯定不会带来人类所不期望看到的那些危害;“安全性标准”,即保证设计出来的系统肯定不会被不具资质的个人或者团体以不恰当的方式加以利用;“可控制性标准”,即保证设计出来的系统在其不幸出错的时候,能够顺利地向人类移交对于自身的操控权。

   罗素等人提出的这几条标准本身看上去虽都貌似有理,但就他们提出的用以贯彻这些标准的具体技术解决方案而言,却似乎依然带有“头痛医头、脚痛医脚”之弊。概而言之,他们的技术方案,便是设计出一套套更为高阶的元算法,以便保证被设计的系统的“可验证性”或“有效性”,等等——这大约可类比于设计出一个个点钞机,以便去检验手动点钞结果的准确性。但问题是:不同的人工智能系统背后的算法基础乃是彼此不同的,因此,你用来检验一个系统的可验证性的元算法,就必然无法与另外一个验证系统相通融——而这又大约可类比于专门用来点验人民币的点钞机,是无法被用来点验欧元的。更麻烦的是,这些标准的具体内容必然会因为语境的不同而彼此差异,因此,对于这些标准的内容的预先规定与编程就会遭遇到一些原则性的困难(不管怎么说,恐怕没有任何一条内容有限的规则可以预见到系统所可能遭遇到的所有语境)。比如,就所谓的“有效性标准”而言,要在智能系统所可能作出的所有动作中,预先排除掉哪些动作是“人类用户所不期望看到的”,又谈何容易。举个例子来说,在一个问题求解语境中,吸尘机器人去清洗自身(而不是地板上)的灰尘或许是人类用户所不希望看到的,但是在另外的一个语境中,有些人类用户却希望其这么做。反过来说,如果有人硬是要将这些所有可能的语境都考虑在内并设计出一套超级检查程序的话,那么,对于检查程序本身的运行就很可能会占据大量的运算资源,并最终导致系统的崩溃。

   在笔者看来,问题的真正解决思路,似乎不在于如何从外部的立场出发,去给人工智能系统“立法”。更值得推荐的思路,或许是让智能系统成为真正的伦理主体——或者说,让伦理性内植于机器自身的程序之中。若用一句话来概括笔者的思路的话,这就是:“将人工智能研究升级为人工伦理研究”。

   “机器人三定律”与作为伦理主体的人工智能系统

   为何一定要将对于“人工智能”的研究升级为对于“人工伦理”的研究呢?我们不妨暂时抛开对于人工系统的讨论,而来看一下我们人类自己的“伦理可靠性”。假设你是一家公司的领导或者是一支武装部队的首长,你又如何能够保证下属对于你的忠诚呢?一个比较笨的办法就是制定各种行为标准,严惩不忠者,奖励优秀下属。然而,任何完善的规章制度本身肯定都是有漏洞的(因为任何抽象的规章制度都不会具有彻底的“语境敏感性”),因此,你还得让你的下属从内心生长出对于上级或者团体的忠诚。不难想见,自发的忠诚感与恰当的智能的相互匹配,可以达到某种非常完美的效果,比如,在某主体面对一个新的问题情境时,他既能够根据自己的智能,富有创造性地给出最佳的问题求解策略,又可以根据他的忠心来保证这种求解的效果最终是有利于其所为之服务的社会团体的。反过来说,伦理意识一旦缺失,即使法制体系以及管理规章非常严密,行事者也可以利用其智能从中找到漏洞,并由此让法规异化为为自身牟利的工具。从哲学史的角度看,儒家之所以推崇德治,而对法家所鼓吹的法治的充分有效性有所怀疑,恐怕也是出于同样的理由。

   那么,我们又该如何让人工智能系统具有对于人类用户的内在忠诚性呢?根据科幻作家阿西莫夫在其1942年首发的小说《我,机器人》中提出的建议,我们似乎可以讲所谓的“机器人三定律”内植于人工智能系统之中。这三条定律是:

   定律一:一个机器人不能伤害人类,也不能够在人类面临受伤害风险时袖手旁观;

   定律二:一个机器人必须服从人类的命令,除非这种服从会导致机器人违背定律一;

   定律三:一个机器人必须尽力自我保护,除非这种自我保护会导致它违背前两条定律。

   这三条定律的意思看似浅显,但若真要将其写成程序,却会立即遭遇到一些哲学层面上的困惑。具体而言,相关的麻烦是由前两条定律中提到的关键词“人类”引起的。不难看出,作为集合名词的“人类”是有歧义的,它既可以指“任何一个人”或“所有人”,也可以指“大多数人”。若取前一种理解,我们就会发现,阿西莫夫的“机器人三定律”,或许可以被视为德国哲学家康德所说的“绝对命令”在机器人时代的翻版。我们知道,按照康德的伦理学,一条绝对命令就是一个没有条件限制的应然性祈使句。在康德道德哲学的语境中,此类需要无条件被执行的祈使句也有三条(按效力大小排序):

   第一,所有的道德断言都应当对一切主体和一切语境有效(普遍性标准);

   第二,对一切主体和一切语境来说,都应当把其他的任何人当成目的,而非手段(目的性标准);

   第三,所有的道德主体在类似的语境中都应当能够根据纯粹实践理性得到相同的“应然性”判断(普遍目的性标准)。

   现在我们就不妨来更为仔细地比照一下阿西莫夫的三定律和康德所说的“绝对命令”。若将阿西莫夫的“机器人定律一”中所提到的“人类”理解为“所有人”或“任何人”,该定律显然满足康德所说的“普遍性标准”,因为“定律一”的表述亦是没有条件限制的——换言之,“既不能伤害人类,也不能在人类面临受伤害风险时袖手旁观”这一条是对一切机器人、一切人类个体和一切语境起效的。后两条定律若和此条发生冲突,也必须牺牲自己而服从于它。另外,“定律一”也暗含把人“当成目的”的想法,否则就谈不上“在人类面临受伤害风险时不能袖手旁观”了。

   读者或许会质疑说,根据这种对于机器人定律的康德式解读,我们又如何保证机器入能够被运用于一些特殊领域(比如军事或者治安领域)呢?譬如,一个警用武装机器人是否可以对正在挟持人质的恐怖分子开枪呢(别忘记了,恐怖分子也是人,因此也必然会被康德主义者解读为“目的本身”)?又比如,一辆自动驾驶的汽车,又如何能够在面对两难的情况下(譬如那种无论怎么驾车都会撞到行人的情况),根据“伤害最小化”的原则实施“紧急避险”呢(因为即使是“最小化了的”伤害,毕竟也是对于人类的伤害)?由此设计出来的智能系统,会不会最终变成为优柔寡断的“机器人版哈姆雷特”,而无法在面对环境变化时及时给出恰当的回应呢?

而为了解决这个问题,最容易想到的办法是将机器人三定律中的“人类”直接界定为该系统的直接用户。但即使是这个办法也并不治本。首先,在很多场景中,系统所面对的人类对象并不是其直接用户,但是其决定却关系到了他们的生死(如上面提到的防暴机器人的例子)。其次,在系统的直接用户本身的伦理品性难以被保证的情况下,系统很有可能会沦为助纣为虐的工具——在这样的情况下,我们更希望出厂的机器人自身所内装的“伦理模(点击此处阅读下一页)


爱思想关键词小程序
本文责编:陈冬冬
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/95288.html
文章来源:《文汇报》(沪)2015年417期
收藏