返回上一页 文章阅读 登录

王海东:维特根斯坦论意义盲人及人工智能

更新时间:2020-09-05 19:31:10
作者: 王海东  

维特根斯坦论意义盲人及人工智能

王海东

  

   摘要:早在图灵时代,对于机器能否思维等问题就有过深入的探讨与争论,为了反驳图灵的肯定性意见,哲学家维特根斯坦提出“意义盲人”的方案。一则澄清人与机器的差异,机器不及人之处在于——没有本能冲动、自我意识、自由意志、心灵结构和语言构造能力,无法在语言游戏之中,感受和创生丰富的意义世界。同时,也肯定二者的家族相似性,思维、语言和算法的相似性,遵守规则的相似性。随着人工智能时代的到来,图灵的强人工智能理论虽然具有明显的科学优势,但是在探索人工智能的安全性问题时,维特根斯坦的方案具有哲学家的远见卓识,有着十分积极的借鉴价值。

   关键词:意义盲人;语言游戏;家族相似性;图灵测试;人工智能;

   作者简介:王海东,男,云南省社会科学院哲学研究所研究员。

  

   “机器能够思维吗?”——这一图灵之问,开启了人工智能的大门,正在变革着人类的思维模式、行为习惯以及生活方式。一个全新的生活形式,即互联网人工智能时代,悄然而至,然而其中的诸多问题,却悬而未决,不仅制约着人工智能(简称“AI”)的进一步发展,也隐藏着人类的远忧。

   然而早在图灵时代,哲学家维特根斯坦就表达了对“图灵机”的困惑:机器能够思维吗?能够思维的机器是人吗?机器语言与人的语言一致吗?图灵给出的回答是:机器能够思维,能够遵守规则。而维特根斯坦明确反对,认为机器不能思维,机械地遵守规则并不是遵守机械式的规则,机器虽能够表达词语(符号),但却无法在具体的语境之中,准确地掌握词的“意义”。他们之间的争论,不仅是最早的“人工智能之争”,也是极具代表性的观点,图灵是强人工智能的代表,而维特根斯坦则较为谨慎,持保守态度,认为人工智能不可能代替人,直至今天,学术界依然没达成一致的共识。

   但是,随着人工智能的迅猛发展,且正在全面革新人类的生存状况,相应的理论研究不断突破,以往的许多理论都遭遇到前所未有的挑战,不得不更新换代。以至于泰格马克认为,人工智能的发展,会促使人类重新定义生命,与此相应,更多的领域都要进行变革。那么,维特根斯坦关于人工智能的看法具有什么样的时代意义呢?

  

   也许是历史的偶然,或者某种神秘的巧合,竟然让两个伟大的天才相遇——维特根斯坦和图灵于1939年同在剑桥大学授课,并开设同名课程《数学的基础》,图灵还去聆听维特根斯坦的课,经常讨论数学、逻辑和语言等问题。在关于“机器能否思维”的问题之争中,二人分歧极大,彼此都无法说服对方。图灵提出了天才性的设想,即图灵测试(Turing Testing),测试人在不知被测试者(人与机器)的情形下,相互分离,通过特殊装置(如键盘)向被测试者随意提问,经过一定时间的问答(5分钟),若测试者无法根据回答情况,判断对方是人还是机器(或者30%以上的答案让测试者误以为是人的回答),那么就可以认定这台机器通过测试,具有同人相当的智力,能够思维。[1]维特根斯坦自然不同意图灵的设想,即便是机器能够正确回答问题,但机器的回答与人的思维、语言和行为却是两回事。

   为了能够有力地反驳图灵难题,维特根斯坦对思维、语言、心理和意义等问题进行了系统而深入的思索。对机器人进行探究之后,认为机器不可能跟人一样,即便它能够不断模仿人、接近人,甚至是逼真,但却永远不可能达到与人同一的境地。为辨别人与机器的关系,他作出了一个“意义盲人”假设,将其特征描绘出来,呈现二者的根本差异。

   在《心理学哲学评论》中,维特根斯坦对“意义盲人”进行了细致的探究,到底什么样的“人”,可以称为“意义盲人”?与真正的人又有什么样的异同。他并没有给出一个明确的定义,与其一贯的风格类似,他也是在思维和语言的游戏之中,根据不同的表征,对“意义盲人”进行了精细的描绘,使其面相显现出来而已。

   在维特根斯坦看来,“意义盲人”就是机器人的代号,他还设想了一种“阅读机”,但对之不屑,视之为“弱智者”,它们一样机械而呆板,给人的印象不佳,“更像机器人那样行动”。[2]这种笨拙之相,在语言游戏之中也极为明显。对于正常人而言,能够将一个或者几个孤立的词,立刻造出某个句子或几个句子,而“意义盲人”就“做不到这一点”,除非能够接收这样的指令。

   在词的运用之中,人们很容易就能领悟对方的所指;当我们说到代词“这个”时,以之向他人解释红色、苦和疼痛时,就可以指着红色东西,说:“红色就是这个”,让他吃一片苦瓜,说:“苦就是这个”,掐他一下,告诉他:“疼痛就是这个”,[3]他立即就学会了这几个词以及代词“这个”。而对于机器人(意义盲人)来说,则难以区分“这个”词的具体意义。对特殊心理,诸如“想像”、“回忆”、“企图”、“相信”和“希望”,到底意味着什么?[4]人们都难以将自己的理解展现出来。如何才能把“我希望明天会更美好!”的心理状态呈现出来?那种充满焦躁、渴望而喜悦的心理,是机器人无法体会并表现出来的。

   不仅在对词及语言的使用上,机器人存在着缺陷,而且对语言的理解,尤其是情感体验或经验感受也有难以逾越的鸿沟。由于“对意义的体验在语言的使用中似乎没有什么重要性”,[5]即便没有体验,机器人也能够根据指令,输出信息——说出相应的词或者语句。但是,在生活世界之中,人们的言语行为却远不止能指层面的语音符号,还包含着丰富的意义。伴随“银行很远”而产生空间图像,不只是一个心像,还是“对这个句子的说明,而不是对其中的词的说明。”[6]听者马上就有了心理准备,得走好一会儿,才能到达。若有人告诉机器人:N死了!它会有心理感受吗?对于这个“空心”的机器来说,至少目前还无力嚎啕大哭,也不会悲伤。而人们听见这样的噩耗,难免有些伤感,要是与N为友,且是好朋友,或者是亲戚,则会痛苦不已,甚至是甘愿随之下黄泉。

   显而易见,机器人对语言是毫无体验的,然而在生活世界之中,语言所牵连的情感体验、心理感受和经验极为丰富且重要。机器人会因为被人谩骂而难过吗?你对机器人说:“你是一条驴”,它不会生气,只会跟你澄清——它不是驴。而你恶意地对某人如此骂道,不仅会遭到对方的回击,甚至还可能因对方情绪冲动,而导致一场斗殴。人会因为一时冲动,而作出匪夷所思的事情,“一见钟情”和“激情犯罪”就是这样的典型。机器人没有本能冲动,它因能够摆脱人的生物性特征,反倒显得具有独特的优势,无需任何生活物资,能够一直工作,且无休息睡眠,也不会做梦、不会撒谎、不会意淫,是一个理想的仆人,更不会觊觎女主人的美貌,而陷害男主人。因为它没有心灵结构,更没有生物性欲望。即便当今逐渐流行的性爱机器人,也不过是根据编程和指令,在工作而已,她的一颦一笑,都是算法的结果。你愉悦,难过,或是烦恼,都与她无关,而是你自己的情绪感受。你痛苦流涕,彻夜难眠,甚至绝望自杀,一切心理活动,都是机器人无法感受的。机器人会难过、忧愁、绝望和自杀吗?

   在许多具有宗教信仰的国度里,许多人相信“灵魂不朽”,坚信神的存在,那么从机器人嘴中说出:“上帝存在”。这意味着什么?一个句子,一串符号而已。它会去捍卫上帝吗?会以身殉道吗?我们设想,在漆黑的夜晚,分别对着一个无神论机器人和一个无神论的中国女性,大喊——“有鬼呀!”二者的反应会如何?机器人会吓一跳吗?甚至是吓出一身汗,吓坏了吗?应该不会。而后者很可能遭受这样的后果,因为这样的文化心理和集体无意识早已种在她的观念之中。虽然,她是无神论者,但是在黑暗之中,遭遇恐吓的本能反应,则是另外一回事。也就是,在理性状态和应急状态下,人的直接反应很难预测,而机器人则仍会将“恐吓”当成“指令”对待,作出相应的信息输出。

   面对复杂的语言,“意义盲人”措手不及,无法应对变化多端的用法。而语言的意义就是其用法,“意义即用法”,词是在语言的运用之中获得意义“词只有在生活之流中,才有其意义”,[7]离开生活,语言便丧失了根,“想象一种语言意味着想象一种生活”。这一维特跟斯坦著名的理论,阐释出语言的要义。然而,“意义盲人”却无法做到对整个思想的把握,也许他能理解或使用一个词或句子,但却无法从整体上把握一种语言,更无法把握一种生活形式。[8]在对标志符号的运用和理解上,机器人也是相形见绌。在设计图上,“用一个树桩代表一棵树”,人们自然知道那个地方将来要种一棵树,也知道在这句话中,“树”代表一棵树的图像。因为,“人们在图像语言中可以把这个图像放在‘树’这个词的位置上,而‘树’这个词在任何场合都可以通过指示定义而与这个图像相联系。”[9]人能够在指示定义中,将词、物和像连接起来,而机器人却难以完成这样复杂的语言和心理过程。在特定的情形下,我们还可以自编一些暗号,指代特定的对象;情报工作就是如此,有一套隐秘的代码符号,只有内部的联络员才能知晓其意义。机器人只能根据已有的编程,静态地掌握词和句子,按照一般的算法输出合符语法的信息。而人则能够灵活地运用语言,能够领悟语言丰富的意义。

   在日常言语行为之中,人们具有自由意志,能够通过语言表明自己的意图。M认真地说:“好的,我同意明天下午三点去相亲。”若是机器人也说了同一句话,听者会深信不疑吗?至少在机器人婚姻法还未出台的今天,听者只会将之当成一个幽默的笑话。而且它如此去行动,几乎不可能,犹如痴人说梦。在言语行为上,机器人的以言行事的能力远不如人强。一个机器人对你说:“我爱你!我真的爱你!”你相信吗?还是将其当成一个语音符号,一个指令的结果而已。还可能是一只令你恶心的蟑螂,恰巧踩到某个键,发出了这样的指令。而你心仪已久的某位男神,手捧鲜花赠予你,并如此说,那么你多半会相信这是真的,而不是玩笑。由于机器人没有“心灵”,是一个“空心人”,缺乏意识与自我意识,致使其言语行为犹如一个空壳之贝,即使逻辑形式和语法完全正确,但却无法表达其心灵状态,而自由意志、动机和真诚正如那失去的“肉身”。机器人能够表达“爱”吗?进一步追问,机器人根据指令说出“爱”这个词,与爱的心理结构和行为能够融贯吗?机器人能够抵达“我爱你,却与你无关。”的境地吗?而那些超出两性之爱的友谊之爱、亲人之爱,甚至更为博大的仁爱、兼爱、博爱、圣爱和慈悲,对于意义盲人而言,是无法领会的,爱是难的,因为“爱”不是一个词。于是,维特根斯坦感慨道:“爱,这种重要的东西,不是一种感情,而是某种更深的东西,它只不过在感情中表露出来。”[10]那种更为深层的东西,通过语言、行为和情感得以开显出来。

但要是表达那些不带自由意志,或者意图的言语时,机器人则能够逼真地执行指令。而人不仅能够表达具有“意图”的言语,也能够施行没有“目的”的言语行为。维特根斯坦指出这种非意图言语行为:“并非我所做的一切事情都是怀着一种意图做出的”。最为常见的是,“我一边走,一边吹口哨,如此等等。”这样的行为,并无明确的目的,也容易为人所理解。但是,“如果我现在站起来,走出房间,然后又走回来,对于‘为什么你这么做’这个问题,我回答说:‘没有什么特殊的理由。’或者‘我只是这么做——’那么人们会认为这是很奇怪的。”[11]对于这种背离语言游戏规则的行为,人们会难以理解,甚至会称之为“低能儿”,经常做一些没有意图,(点击此处阅读下一页)

本文责编:sunxuqian
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/122763.html
文章来源:作者授权爱思想发布,转载请注明出处(http://www.aisixiang.com)。
收藏