程炼:人工智能基础评论

选择字号:   本文共阅读 1910 次 更新时间:2015-03-20 13:54

进入专题: 人工智能   现象学   哥德尔定理  

程炼  

内容提要:人工智能的基础问题涉及人工智能的可能性和局限性问题。图灵的智能理论和机器思维的观点在本章中得到阐发。本章的主要内容是回应两种在哲学文献中反复出现的论证,一个应用哥德尔定理,一个运用现象学学说,两者都声称计算机能力与人类智能之间在原则上存在着不可填补的沟壑。本文试图证明,这两个论证都没有成功地证明这个沟壑的存在。

什么是人工智能?

人工智能最初是作为计算机技术(尤其是软件技术)的一个分支而出现的,经过几十年的理论与实践活动,取得了巨大的成就。在其发展过程中,哲学、心理学、语言学、神经科学等领域的大量思想和方法不断地渗入进来,以至于今天询问“究竟什么是人工智能?”时,即使让有权威的专家们来回答,答案也是不尽相同的。

根据某种普通的定义,人工智能是使计算机做聪明的事情的艺术。这个定义虽然看起来抓住了人工智能的精神,但它不够具体,还有一些别的看法:

(1)作为软件工程的一个分支,人工智能仅仅是一些编制程序的技巧,它们使得计算机能够诊断疾病、理解自然语言等等。

(2)作为一门计算机科学理论,人工智能是关于编程的一种独特构想。

(3)作为哲学的分支,人工智能是一种实验认识论:知识是什么?在计算机或人的心灵中知识如何被表达?

(4)作为一门心灵(mind)科学,人工智能体现了这样一个思想:心灵基本上是一种处理信息的机制。在最深的层次上,人工智能试图对这个伟大的未决问题做出贡献:心灵如何从非心灵中产生出来?

站在不同的角度看人工智能,它就会呈现出不同的图像。在上面的前两个定义中,人工智能被当作一门技术,而后两个定义将人工智能看作一种思想。但在种种差异背后隐藏着一种原始的一致性,即人工智能作为一种科学探究,它正在或试图达到什么目的。一般说来,贯穿人工智能的全部历史,它的目标在两个方面:

(1)建造强有力的装置以尽可能多地(或全部地)完成通常认为只有人类才能完成的工作;

(2)提出精致的、基于实证的新理论以解释人类的精神生活。

围绕这两个目标所进行的工作正好分别构成了人工智能的实践活动和理论活动。

人工智能诞生的初期,在这两个方面都出现了令人瞩目的成果。许多研究者因此提出了更加雄心勃勃的设想,他们试图将人工智能看成是一门一般的智能科学,即看成是认知科学的核心。它的目标变成:提供能够解释(或许能够使我们复制)人类的全部心理现象的系统的理论。因此,在人工智能新定义中,“计算机”反而消失了。人们津津乐道的是一些抽象概念,如表达(representation)、计算(computation)、心理图像(mental image)等。

大多数研究者都承认,人工智能作为一门学科已经成熟,但是,那些乐观主义者的雄心勃勃的纲领能否实现,却不可能仅靠设计计算机系统、编写程序来解决。有一类问题深深地与我们的哲学探究相联系着,它们肯定伴随着人工智能的全部历史困惑着我们,这就是人工智能的基础问题。简单地说,“人工智能的可能性与局限性”是这些基础问题的核心。

英国天才数学家阿兰?图灵(Alan M. Turing)于1950年发表的著名长文“计算机器与智能”,可以看作是人工智能基础研究的滥觞。  在这篇文章中,图灵明确地提出了这样的问题:“计算机能思维吗?”为了回答这个问题,图灵设计了一种“模仿游戏”。设想有三个人,一个男人甲、一个女人乙和一个提问者丙。丙可以是任何一种性别,与甲和乙隔离开来。这个游戏的目的是让丙通过交谈确定甲和乙哪一个是男人,哪一个是女人。为此,丙轮流向甲和乙提出问题,甲和乙依次给予回答(问答可借助打字机进行)。如果在一段时间内,丙无法分辨甲和乙的性别,那么就在游戏中失败了;反之,则获胜。图灵设想,现在如果用一台计算机代替甲和乙中的一个,游戏就变成让丙来识别两个回答者中哪一个是人,哪一个是机器。如果提问者无法识别,我们能说这台机器有智能吗?图灵的回答都是肯定的。

图灵的论点后来引起了广泛的争议,这里作一些澄清的工作是有必要的。我们把用图灵游戏来测定智能时所涉及的问题分为两个方面,一个是技术方面,另一个是原则方面。从技术方面看,图灵的原始论文在许多细节上是不清晰的。首先,模仿游戏需要进行多长的时间才算分出胜负,三、五分钟还是数日?如果时间太短,提问者从回答中得不出足够的信息,太长,机器可能死机,人可能累趴下。其次,交谈的内容是否有限定?第三,智力多少是个程度上的事情,某些人智力超群,另一些人愚不可及,更多的人处于中间地带。一台机器可能骗过一个智力平平的提问者,但在一个专家面前却过不了几招。第四,提问者的主观因素显然能影响到游戏的结局。我们是随意指定提问者,还是需要做一定的选拔?所有这些问题都能引发人们思考图灵游戏是否是一个切实可行的方案。我无意在这里进一步讨论这类问题,因为解决它们依赖于更多经验探索。但是,我想指出的是,即使人们能够成功地就这些问题达成共识,还有另一类更理论性的问题没有触及,而这后一类问题是我更为关注的。

许多人以及大量哲学文献都注意到,图灵提出的智能观念是行为主义的。哲学上的行为主义主张,在内部的心理状态和外部行为之间存在着概念上的联系,也就是说,我们在谈论心理状态时,只不过是谈论行为或行为的倾向。但是,图灵的设想并非简单地建立在行为主义预设上。图灵对一般意义上的行为并无太大兴趣,他并未主张,如果一台机器在行为模式上与真人无法区分,那么这台机器就像真人一样具有心理状态,或者更具体地讲,具有智能。在图灵的模仿游戏中,机器只需展示一种特殊的行为——言语行为(verbal behavior),而在许多理论家看来,单有在语言方面与人类无法区分的表现,既不是一个东西具有智能的必要条件,也不是充分条件。实际上,图灵并没有主张,不能通过图灵试验的系统就是没有智能的。图灵的意思是,如果一个系统在一段合理的时间内可以像一个人一样进行日常交谈,这就足以让我们断定它是有智能的,也就是说,在模仿游戏中获胜是一个系统有智能的充分条件。根据我们的日常看法,智能可以用许许多多方式体现出来,演算习题、下棋、创作文艺作品等都是可以看作是智能的展现。为什么图灵对言语行为情有独钟呢?思索这个问题能够让我们领略图灵构想的优美和深刻。

我们知道,今天的计算机能够执行和完成许多从前被认为只有聪明的人类才能从事的任务。但是,我们大多数人不愿承认迄今为止的计算机是有智能的。鉴于这种情况,美国耶鲁大学的人工智能专家德鲁?麦克德莫特(Drew McDermott)在1997年IBM计算机深蓝击败卡斯帕罗夫后评论道:

“去年[1996],在加里?卡斯帕罗夫象棋取胜IBM计算机深蓝后,我告诉我的人工智能导论课的学生说,计算机要挑战最好的人类,还需许多年。既然已经证明我和许多其他人都是错的,许多人一直急于要我们相信,深蓝并不真正具有智能,而且这场胜利与人工智能的未来无甚干系。……尽管我同意这台计算机不是非常有智能,但是,说它根本不显示任何智能却是根本误解了它所做的事情和人工智能的目标和方法。的确,深蓝的能力非常狭窄。它不能认识、更不能拾起一枚棋子。它甚至也不能够谈谈它获胜的那局棋。既然智能的本质似乎是在种种情形下创造性的反应能力,我们难以在这一点上说这台机器有多少智能。”

深蓝的能力是狭窄的,算题、写诗、作画的机器依然在能力上是狭窄的,我们不愿意将智力赋予它们,是因为我们认为智力是远为宽广的能力。图灵选择语言能力作为智能测试的标准,我们难道不能同样说这种能力是狭窄的吗?

在图灵看来,回答是否定的。谈话的能力在所有智力中是独特的和涵盖性的。图灵试验并不限定交谈的话题,模仿游戏的参与者可以就任何题目展开语言上的交流。如果我们将两台机器做一个比较,这一点就更容易理解。假设有一台机器,深红,它在图灵的模仿游戏中胜出。我们可以比较一下深红与深蓝的智力。深蓝只能下棋,而深红可以谈论广泛的话题(包括象棋以及深蓝的获胜局)。实际上,如果深红根本不会下棋,它也不可能聪明地谈论下棋。当然,深红在某种程度上可以被认为是“夸夸其谈”或“纸上谈兵”,如果在棋盘上与深蓝较量会败得一塌糊涂。但这并不重要,世界上没什么人在棋上能与卡斯帕罗夫相比,但他们都可以是有智能的;甚至一个完全不会下棋的人,也可以是有智能的。图灵美妙的构想的背后隐藏着这个思想,即,交谈能力不仅仅是诸多智力的一种,更为重要的是,交谈能力是一种能够(至少在某个程度上)表现其他诸多能力的能力,是一种涵盖性的宽广的能力。套用一句话,“智能一枝花,全靠嘴当家”。

图灵在他的经典论文中做过如下预言:

“我相信,在大约50年的时间里,人类有可能用大约109的存储量给计算机编程,让其玩模仿游戏,它们玩得如此之好,致使一个平常提问者在5分钟的提问之后做出正确的辨别的机会不足70%。……我相信本[20]世纪末,人们的说法以及一般有教育的观点将大大改观,人们将能够谈论机器思维而不感到抵触。”

今天看,这个预言即使不能说完全失灵,至少没有得到实践上的支持。有一些哲学家和人工智能研究者从其他角度论证人工智能的局限。我把这类论证分为两类:

第一类:有一些先验证据表明,计算机系统依其本性,在模拟人类智能方面存在原则上的制约,因此,人类构造的任何计算机系统都不可能通过图灵试验;因此,人类的智能不能用计算机模型来解释;因此,机械论的智能观点是错误的。

第二类:即使计算机系统能够通过图灵试验,依其本性,它们也不具有与人类一样的智能,因此试图用计算机模型来解释人类智能的努力是无法成功的。

美国哲学家约翰?塞尔(John Searle)于1980年提出的“汉字屋”论证(Chinese Room Argument)是第二类论证的代表。  对于这一类论证,我在这里不作讨论。我的主要兴趣集中在第一类论证上。这类论证试图从原则考察计算机具有的能力。这里有两点值得注意。首先,人工智能是一门具体的学科,有经验探究的一面。而科学是一种构造性的工作,它需要确立何为世界中的事实以及刻画事实之间的关系。作为一门科学,人工智能的理论目标是提出一种广义的智能理论或模型,以取代大众心理学中蕴含的昏暗不清的常识智能观。哲学,就其作为最一般的概念上的工作而言,不可能代替经验的观察断言经验世界中的事实,虽然它必须谈论这些事实。哲学探讨的是各种判断之如何可能的方式,亦即确立这些判断赖以成立于其中的框架和建立于其上的基础。因此,我们需要弄清人工智能的基本思想在多大程度上和何种意义上与我们拥有的其他信念和知识相协调或相抵触。其次,哲学对于人工智能有其独立的批判功能。人工智能中某些规范的变化常可以直接投射到哲学史上一些思潮的更替之上,而这些思潮的更替往往是先于人工智能的实践活动的。在此种意义上,哲学的启发对于人工智能实践变得重要起来。人工智能研究中存在着多种工作背景,它们各自拥有自己的哲学信条,多种的思想之间的竞争既是人工智能前进的动力,又是这个领域显得有些混乱的根源,对它们进行清理和评价也是很有必要的。

下面我要面临的是两个哲学上反对人工智能可能性的论证,一个是从逻辑的角度上提出的,一个是形而上学的。我们的主要任务有两个:(1)计算机的能力来自何处?(2)计算机模拟人类心灵是否存在某些原则上的限制?对于这两个问题,我们不可能从哲学的各个方面进行分析,我们只是从两个主要的领域——逻辑和形而上学——中的某些论证中做出关于人工智能基础的评论。

计算机的能力

人工智能需要通过物理载体来实现,这些载体就是各种计算机系统。对人工智能基础的考察必定要涉及计算机系统的形式特性。这种特性对于人工智能的真正含义何在呢?让我们依次考察三个概念:形式系统、图灵机和物理实现。

一个形式系统由四个要素构成:(1)字符,(2)构成合式公式的语法规则,(3)公理,(4)推理规则。

字符指的是一堆形式标记(tokens),一个形式系统选择哪些符号,通常出于使用方便的考虑。人们通常从大小写英文和希腊文字母、标点符号、常用的逻辑符号、阿拉伯数字以及数学符号中挑选一个系统所需要的字符。

语法规则指定哪些符号串构成简单的语句以及如何将简单与聚合成为复杂语句,按照语法规则合成的句子被称为“合式公式”(well-formed formula)。

一个形式系统通常给出一组合式公式作为公理或者基本假设,推理规则则指定一些严格的步骤用公理去推导或“证明”该形式系统的定理。更确切地讲,一个公式F在某个系统中得到证明,当且仅当存在一个有限的证明系列,该系列终结于被F,而F之前的任一个公式要么是一个公理,要么是通过推理规则从上一个公式得出的。一个形式系统虽然本身可以被有限地描述,因为它的四要素在数量上都是有限的,但它可以证明无穷多条定理。例如,皮亚诺算术只有五条公理,但从它们可以推出无数算术定理。数学家们发现,ZF(策梅洛-弗兰克尔)集合论中的公理加上命题演算和谓词演算所构成的形式系统,能够证明全部古典数学的定理!由于公理是自明的,推理是严格的,从两者得到的定理就是有稳固基础的,因此,这种形式化方法催生了一门学科分支,被称为数学基础。科学家们还乐于将这种方法推广到其他学科,如概率论和某些物理学分支,这是题外话。

形式系统的意义还不只限于这些,更有趣的是,它们可以通过纯粹机械的过程自动化。一个纯粹机械的过程可以称为一个算法。假定我们从一个形式系统的字符中任意合成一个符号串,一个算法对这个符号串做三件事:首先,通过一个有限的过程确定这个符号串是不是一个合式公式,其次,通过一个有限过程确定该符号串是不是一个公理;最后,通过一个有限过程将这个符号串与任何一组有限的合式公式结合起来,确定该符号串是否是根据推理规则从那组合式公式推导出来的。我们说一个算法是机械的,是指这里的“确定”、“推导”并不是心理学意义上的,机械过程完全依据语形(syntax)进行操作。当然,具有心理状态的人类也可以进行纯形式的符号操作,但单就形式符号操作而言,心理能力不是必需的。正是图灵在现代意义上将算法自动化,就是说,将算法用一种抽象的机器——今天被称为“图灵机”——来实现。

图灵机是一台抽象的自动装置,一台图灵机具有:

(1)不定数量的存贮箱;

(2)有限数量的执行单元;

(3)一个指示单元。指示单元常常指示一个执行单元(行动单元)和两个存贮箱(分别是“内”箱和“外”箱)。每个存贮箱可以包含一个形式符号(可以是任何符号,但一次只有一个),每个执行单元都有自己特定的规则,当它成为一个行动单元时就遵守这个规则。此规则所限定依赖于当下内箱中的符号;在每种情况下它将指明两件事:第一,什么符号放在当下的外箱中(消除以前的内容,如果有的话),第二,指示单元接下来了出什么指示。机器一步步执行:行动单元检查内箱,然后根据它在那儿发现的符号及其规则,重新填充外箱和安排指示单元,然后开始下一步。通常有一个执行单元不做任何事,所以一旦它被启

用,机器就停下来。

任何一个算法都可以用一台图灵机来实现。更令人惊奇的是,图灵证明,存在特殊的图灵机,被称为通用图灵机,它可以模拟任何别的图灵机。这就是图灵定理,是它构成了现代计算机科学的理论基石。借助于图灵定理,我们可以说一台通用图灵机可以将任何形式系统自动化。

图灵机只是纸上的抽象机器,还不是今天我们插上电源按下开关就自动运行的机器。后来发现,有一些不同种类的通用机,它们并不是严格意义上的图灵机。借助于某些限定,我们可以造出通用机,它们就是几年广泛使用的数字计算机,是通用图灵机在物理上的近似实现。其中一个限定是,真正的通用机必须具有不加限制的内存,而任何现实机器的内存都是固定规模的。所以,除开容量上的限制外,一台标准的数字计算机通过适当编程,可以模拟任何形式系统,也就是说,它可以模拟任何人类能行过程,这就是计算机为什么如此强有力的原因。

计算机求解问题的过程是这样的:对于一个给定的问题,首先必须对它进行形式表达,指定使用的符号、建立合式符号串的规则(句法)以及对这些符号串的解释。然后确立对这些符号串进行处理的规则,经过一系列符号处理过程,最后得到新的符号串作为结果。这就是所谓的形式化方法,可以说,它是计算机工作的核心方式。

哥德尔陷阱

20世纪30年代,正当计算机理论处于发展之中时,对于形式系统的深入研究引起了数学基础领域的革命,著名的哥德尔不完全性定理正是这场革命中的一项最深刻的成果。由于哥德尔定理是关于形式系统的一般性结论,因此直接影响了关于计算机器能力的讨论。哥德尔定理对于人的智能的真正含义,今天依旧是一个常见于哲学文献中的话题。

20世纪中叶,计算机的出现和广泛使用引起了极大的关注,人们开始从各方面将人与计算机进行类比,关于人类心灵的机械论观点开始复活。与此同时,也出现了许多反驳机械论观点的论证。这些论证中最具威力、影响至今的论证是借助于哥德尔定理证明机器永远不可能完全模拟人类心灵。欧内斯特?内格尔(Ernest Nagel)和詹姆斯?纽曼(James R. Newman)的小册子《哥德尔证明》 、卢卡斯(J. R. Lucas)的文章“心灵、机器与哥德尔”在这方面最有代表性。这类论证的核心想法是,设想有一台证明算术定理的机器,由于这台机器本身体现的了一个形式系统,它的能力就受限于一个它自身无法跳出的“哥德尔陷阱”,亦即,对于这台机器而言,它的哥德尔语句是它无法证明的,而我们人类能够看出这个语句是真语句。因此,这类论证总结说,人类心灵在本质上是优于任何将一个形式系统实例化的计算机的。卢卡斯在他的文章中写道:

“给定任何一致的和能够做初等算术的机器,存在一个这台机器不能产生的为真的公式——即这个公式在此系统内是不可证明的——但我们能够看出这个公式为真。由此推出,任何机器都不可能是心灵的一个完全或充分的模型,心灵在本质上不同于机器。”

卢卡斯(和后来的彭罗斯)声称,哥德尔定理可以用来证明人工智能是没有希望的。他们的论证经过重构和解释,可以表述如下:

(1)对于任何一台计算机,假设它体现了一个可以列出初等算术定理的形式系统。

(2)对于这台计算机而言,由于它是一致的,因此存在一个哥德尔语句,这个句子为真,但这台机器不能证明它为真。

(3)因此,这台计算机不能认识到这个句子为真。

(4)人类智能能够认识到这个句子为真。

(5)因此,人类智能中至少有一部分不能被这台计算机所模拟。

这个论证在直观上似乎很有力,但其实是过分简单地和错误地运用了哥德尔定理。哥德尔定理说的是,任何一个包含初等算术的形式系统,如果它是一致的,它就是不完全的,也就是说,一定存在为真的陈述,该陈述在这个系统内部是不可证明的。上面的论证中,只有在计算机是一致的这个条件下,哥德尔定理才适用。但是,在什么意义上,一台计算机是一致的?这里,我们要区分理想上的一致性和实践上的一致性。一个形式系统是一致的,仅当它的定理在逻辑上被其公理和推理规则所保证,这种一致性是理想的,与另一种实践上的一致性要区分开来。设想有一个人依照公理和推理规则“推导出”一条条定理,当我们问这组推导出的定理是否一致时,我们问的很可能是,这个人在推导的过程中有没有出错,比如说,他是否不知不觉地误用了规则、推演过程中是否出现笔误等?一台体现这个形式系统的计算机是由各种物理硬件和软件构成的,我们在什么意义上说它产生的算术定理集是可靠的(sound)?显然,说它们是可靠的,意味着这台机器的每个物理细节在功能上都是正常的,为它编写的程序是恰当的,等等。但是,在现实世界中,数不清的因素,既有硬件上的,也有软件上的,对一台机器的运行产生着影响,谁能有先验的理由保证一台现实的机器没有出现功能上的障碍呢?卢卡斯的论证显然有一个暗含的、关于机器的一致性的理想化预设,即计算机的运行是完美无缺的,一旦这个预设受到质疑,上面论证中的第二和第三个步骤也就受到质疑。这是因为,如果一个系统是不一致的,任何命题都可以在其中得到证明。

即使理想化预设不受质疑,上面论证中的第四个步骤也是可疑的。假设用H代表人类智能,M代表该计算机,Gm代表M的哥德尔语句,那么(4)可以写成:H能看出Gm为真。凭什么说H有这个能力?答案似乎只有两种,一是,H根据哥德尔定理看出Gm为真,二是,H有一种先天能力,直接看出Gm为真。我们先看前者。哥德尔定理说,当M是一致时,Gm为真但M不能证明Gm为真。因此,只有H相信M是一致的,H就能运用哥德尔定理合理地相信Gm为真。但H何以相信M是一致的?因为H看出M列出的定理都是真定理。不过,这里需要说明的是,给定理想化预设,M是一致的是一回事,H能够看出M是一致的是另一回事,也就是说,即使M是一致的,H也不一定有能力看出M市一致的。一方面,由于人脑是有限的,当M足够复杂时,H没有理由相信自己能看出M的一致性;另一方面,H本身也可能是不一致的,数学史上的诸多实践表明,H并不总是一致的。因此,第一种对H看出Gm为真的能力的解释,表明步骤(4)是可疑的。再看看第二种解释,即H有一种先天能力看出Gm为真。这种解释似乎蕴含着这样一个想法:即使H不知道M是否一致,H也能看出Gm为真。这个想法非常奇怪,它似乎赋予了H一种神秘的觉察真理的能力。但显然这里要付出代价,那就是,H不确定M列出的定理集是否是可靠的,而H又同时相信Gm与这些定理是相容的。

总之,即使理想上讲,机器是一致的,它的一致性是否是人类智能能够看出的,是一个未决的问题。如果我们看不出它是一致的,我们就无法称它的哥德尔语句为真。实际上,我们很难“看出”一个复杂的形式系统的一致性,我们只是从哥德尔定理知道,如果这个系统是一致的,那么一定有一个为真的公式是这个系统所不能证明的。这样,卢卡斯的论证只表明,如果人类心灵完全知道一台机器所遵守的所有规则,那么就可以构造一个哥德尔句子,人类心灵可以看出它为真,但机器不能证明它。但这只是一个假言的结论。

卢卡斯论证的另一个失误是,它把哥德尔定理只描述成对机器的限制,而没有看到哥德尔定理同样适用于人类心灵。像给一台机器设计一个哥德尔语句一样,如果给卢卡斯设计一个哥德尔语句“卢卡斯不能一致地断言这个句子”,卢卡斯也无法判断其真值(假定他是一致的)。卢卡斯论证也没有正确地理解计算机的工作方式。在一台计算机中有不同的工作层次,从物理层次到机器码层次以及更高的信息(语义)层次,在较高的符号处理层次上,我们同样可以使机器像人一样,在一致性和完备性不可两全的情况下选择一方面放弃另一方,从而判断出哥德尔语句的真值,学习机器的出现也可以使机器学会应付新情况,从而跳出“哥德尔陷阱”。

上面的讨论只是反驳了卢卡斯式的论证,下面我借助鲁迪?拉克(Rudy Rucker)的论述从更为技术的角度讨论人-机在数学能力上的等价的可能性。

假定H代表人类的数学直觉(亦即心灵的能力),H*是H能够宣称为真的陈述的集合;M是一台图灵机,M*是M所列出的定理集。卢卡斯的论证是这样的:

(1)M*?H*?H能够看出M体现了一个为真的形式系统。

(2)H知道M为真?H知道M是一致的,并且Con(M)?H*。

(3)但是Con(M)?M*(哥德尔第二定理),所以M*?H*。因此,没有任何机器M等价于H。

我前面论证的重要的一点是,对于一台很复杂的机器来说,它的一致性在我们的直观之外,我们很难预言这样的机器的行为。这就是说,卢卡斯证明中的步骤(2)太强了,我们需要对它做更合理的处置。

设有一个谓词Tr(e),Tr(e)=机器Me列出了一个H相信为真的语句集。Me是一台带有指标e的图灵机(e的大小相当于代表Me的复杂程度)。

这里有两个原则:

(1)Me*?H*? Tr(e)? H*;

(2)Tr(e)? H*?Con(e) ? H*。

如前所述,(1)不必要这么强,我们都承认H*中的所有语句为真,如果M*? H*,那么M*实际上仅列出了为真的定理。但是,只有当H能够将Me看成是一个整体时,Tr(e)才真正在H*之中,而只有H能够命名一个很大的自然数e时,这才是可能的,因此,(1)应当改写成:

(Me*?H*&e是人类可命名的)? Tr(e)? H*

在贝里悖论中,我们知道,存在一个特殊的自然数uh(即人类贝里数),uh是第一个H不能为之找到一个名字的数(这需要我们是柏拉图主义者),因此,小于uh的数才可以看成是人类可命名的。这样,第一个原则就是:

(Me*?H*&e?uh)? Tr(e)? H*。

假定有一台机器Mh,当h? uh时,Tr(h)?H*,因此H*=Mh*与哥德尔定理并不相悖。当然,这并不是说有一台机器与人类数学直觉等价,而是说,即使有一台机器与人类数学直觉等价,那也是与哥德尔定理不矛盾的。

我以哥德尔的一段评论来结束这一部分对卢卡斯式的论证的考察。哥德尔认为,关于形式系统的可靠性(soundness)的知识,建立在充分数量的事例的基础上或者借助其他归纳推理,充其量只有经验上的确定性(empirical certainty)。哥德尔写道,

“可以设想(尽管远远超出今天的科学的限制),大脑生理学发展到如此之远,以至于我们在经验上确定地知道,(1)大脑足以解释所有的心理现象,并且在图灵的意义上是一台机器;(2)大脑中从事数学思考的那部分的精确解剖结构和生理运行也是如此这般。

……当然,思维机制的物理运作是完全可以被理解的;然而看出这个特定机制一定总是导致正确(或仅仅一致)结论的那种洞察力,将超出人类理性的能力。”

从逻辑上考察人工智能的确是人工智能基础理论研究中最为重要的。哥德尔定理对于人工智能的真正含义是什么?这个问题是极其困扰人的。在卢卡斯等人看来,哥德尔定理表明了人类心灵与任何机器在计算能力上的一个差异,这种差异导致机器不可能充分模拟人类的心灵。我们上面的分析证明了这种看法是错误的。但是,这并不意味着我们证明了心灵和机器没有差异(如在数学能力上)。我的策略是辩护性的,我只是说哥德尔的结论并不是心灵能力优于机器的逻辑证据。在我看来,一个值得玩味的结论应该是,人工智能的极限是超越了我们的直觉的。

实在的形式化

从计算机的工作原理我们得知,计算机求解问题需要三个前提:

第一,必须对问题进行形式化表达;

第二,必须能够构造出求解问题的算法,即问题必须是可计算的;

第三,必须在受到限制的时间和空间内得到问题的答案。

在这些前提当中,第三个前提属于计算机技术范畴。在图灵生活的年代,电子数字计算机刚刚研制出来,其容量和速度与今天的计算机不可同日而语。即使在高速度巨容量的计算机得到普遍使用的今天,在实际运算中也出现大量的所谓组合爆炸问题,即问题的复杂程度超出了计算机的运算能力,这也正是为什么需要人工智能的重要原因之一。对于这个前提我们不作具体讨论。

对于第二个前提,可计算理论已经提供了大部分说明。在前面中我已讨论过一些极端情形(如计算机能否计算本系统自身的哥德尔数的问题),并说明了计算机的巨大能力是由丘奇论题和图灵定理所保证的。

我们需要给予细致分析的是第一个前提。首先,很容易出现这样一个问题:每个问题都可以形式化吗?或者,更一般地讲,一切实在过程都可形式化吗?

对一切实在过程给出形式化的表达的想法深深地扎根于西方科学传统中,科学知识的确定性和完备性是科学家们孜孜追求的目标。人工智能可以说是这种追求的自然产物。

人工智能大致有新旧两种款式,老款式有一些称呼,如“古典人工智能”(classical AI)、“符号操作人工智能”(symbol-manipulation AI)、“思维语言人工智能”(language-of-thought AI)等。新派则打着一个共同的旗号“联结主义”(connectionism)。  说人工智能有新旧,并不是说旧的被新的所替代,或者说旧的式微、新的坐大。老派人工智能在20世纪50年代至80年代一直占据统治地位,即使在今天也是非常精致的、有吸引力的关于智能机制的理论。两派人工智能的分歧主要在于,前者将智能看作是抽象的、依据形式系统进行符号处理的功能现象,任何一个系统,只要展示特定的功能结构,就是可以认为是有智能的;后者则认为智能是具体的、依赖于人脑的特定物理构造的心理现象。从文献中可以看出,反对人工智能的大部分论证都是针对老派人工智能的。在余下的评论中,我将不触及联结主义人工智能,只考察另一个认为计算机能力无法与人类智能匹敌的论证。

维特根斯坦1921年发表了他的第一部也是他生前发表的唯一一部著作——《逻辑哲学论》,他在这本书中提出的哲学见解可以非常接近于一种真正的“计算机哲学”。它极其精致地探讨了关于心灵和世界的形式化定义,一般认为《逻辑哲学论》代表了他的早期思想。他的这一时期的思想,早期人工智能建筑于其上的形而上学基础基本上是吻合的。

维特根斯坦借助命题演算和命题作为实在的图像这两个理论来完成他对世界结构的形式刻画。在他那里,一个基本假设就是存在着不可分解的逻辑上独立的原子语句,他称它们为基本命题(elementary propositions)。这些基本命题在事实上非真即假,“所有命题都是基本命题的真值演算的结果。”  因此,在一种科学语言中,关于实在的合式图像的句法便是所有基本命题的合式逻辑组合的集合,而它的语义就是构成事实的那些组合的子集。只要找出所有的基本命题,然后逐个检查其所有的逻辑组合是真还是假,就可以构造出世界的完整的图像来。在原则上,维特根斯坦的算法是一个完善的算法。

一旦我们执行这个算法,科学和技术将陆续推断出一个明晰性、确定性和控制都得到保证的世界,一个由数据结构、决策理论和自动化构成的世界。这个框架中的任何东西就变成自明的或是同义反复的,在此之外的任何东西是人们不能用哲学或科学的语言来谈论的。在这个框架背后可能会出现某些神秘的东西,它们只能向我们显示,但我们不能用语言谈论它们。

世界必须被表达成由初始元素构成的一组有结构的描述,这是人工智能工作的必要前提。在计算机所构造的世界中,一切东西都是静态的、中性的、自明的、非真即假的。首先定义最简单的基本元素,任何复杂的东西都是较简单一级的东西的真值逻辑组合。如果世界是这样的话,我们只要执行维特根斯坦的算法,就将产生出科学对实在的一个完善的描述或理解。如果这套概念系统不错的话,除了对“神秘的东西”保持一点敬畏之外,哲学实际上结束了。

维特根斯坦的尝试在对完善性和确定性的追求上达到了顶峰,然而哲学并没有结束。维特根斯坦后来认为,《逻辑哲学论》在某些方面出了问题,他的算法碰上了麻烦。

《逻辑哲学论》所构造的世界是形式的和抽象的世界,这种世界图像与现实世界有着重大差别。首先,在前者中每一个原子语句的真值是独立于语境的、自明的,并且是不变的。但在现实世界中,具有这种性质的原子语句是找不出来的,我们甚至不知道如何什么样的句子才满足要求。在生活中,我们说出、写出的任何一个简单的语句其实都包含着复杂的结构,它的真值和意义会随着它被使用于其中的背景的不同而发生变化。离开了它的使用背景,孤立的语句无法取得明确的意义。其次,《逻辑哲学论》将生动的世界分割成静止的片断,破坏了现实世界中的事实、真理等的时间性和流动性。第三,《逻辑哲学论》将事实与价值绝然分开,认为“它(价值)必须在世界之外”,“世界是独立于我的意志的”,  而从根本上讲,事实与价值的绝然划分使得自然秩序中出现无法弥合的裂痕。从上述三个方面进行反思,人们有理由怀疑哲学是否有能力提供关于自然世界的完备的逻辑图像。或许,想要理解人及其在世界中的位置,完备性的哲学并不是解决办法。即使在被视为确定性典范的数学领域,完备性也是无法达到的。  我们有理由期待哲学探索揭示更多、更深刻的真理,但或许我们无法期待哲学将提供关于一切事物的终极答案,对于人类而言,总是有悬而未决的问题的。

维特根斯坦在他的后期哲学活动中,批判了《逻辑哲学论》中的错误,代表他的后期哲学研究的是1953年出版的《哲学研究》(Philosophical Investigations)一书,在这部著作中,他提出了“语言游戏”和“生活形式”的思想,它们现在是许多哲学争论的时髦话题。

美国当代现象学家德雷福斯(Hubert Dreyfus)在《计算机不能做什么——人工智能的极限》 一书中就运用维特根斯坦关于“生活形式”的见解对人工智能的某些形而上学基础(德雷福斯称之为“本体论假设”)提出了严厉的批判。

20世纪60年代以后的数十年间,人工智能并没有取得早期预料的成就,它在许多方面进展缓慢或停滞不前。这些挫折引发了种种怀疑情绪。德雷福斯是那些怀疑论者和悲观主义者的领袖和代表人物,他认为维特根斯坦、海德格尔、梅洛?庞第这些哲学家的一些哲学结论已经给人工智能的可能性提出了疑问,他断言人工智能肯定是有限度的。在德雷福斯看来,整个人工智能的计划建立在四个假设之上,它们分别是生物学假设、心理学假设、认识论假设和本体论假设。生物学假设说的是,在某个操作层面上,通常是在神经元的层面上,大脑是通过某种开/关闸门的生物上的等价方式,用离散的操作处理信息的。心理学假设是,人类心灵可以看作是一个根据形式规则处理信息的装置。认识论假设是,一切知识都可以被形式化。本体论假设则是,关于世界的一切相关信息,涉及到智能行为的产生的任何东西,在原则上都可以分析为一组独立于特定情境的、确定的元素。德雷福斯利用大量的现象学学说及其他资源对这四个假设提出了批判,他总结说,人工智能由于建立在这些错误的假设之上,是注定不能取得成功的。在这里,我将只分析德雷福斯反驳本体论假设的论证。我取舍的依据在于,本体论或形而上学上的探讨具有一定的基本性。

德雷福斯首先追溯了本体论假设——即智能行为在原则上必须被理解为确定的独立的元素——在哲学史上的渊源。在我看来,他的这段追溯是非常中肯的和准确的,我把它录在下面:

“……根植于我们文化中的哲学传统的目的就是要消除不确定性:道德的、智识的和实践的。实际上,在柏拉图那里就已经有一个要求,那就是,知识必须按照规则或定义来表达,我们能够不带解释上的风险来应用规则或定义。在莱布尼兹那里,传统的知识观念与世界可以被分析为离散元素的明斯基式观点的联系变得明确起来。根据莱布尼兹,我们在知性中将概念分析为更简单的元素。为了避免更简单和更简单元素的后退,那么,一定有一些终极简单的概念,按照它们我们能理解所有复杂的概念。此外,如果概念要应用于世界,世界上一定有些被这些元素所对应的简单物。莱布尼兹憧憬了‘一种人类思想的文字’,‘这种文字的字符被用于证明时,能够揭示在对象中也可以发现的某种联系、聚合和秩序。’经验主义传统也被这种离散知识要素的观念所统治。对休谟而言,一切经验都是由印象构成的:印象是可孤立的、确定的经验原子。唯智主义(intellectualist)和经验主义学派汇合在罗素的逻辑原子主义中,这个思想在维特根斯坦的《逻辑哲学论》中达到极致,在《逻辑哲学论》中,世界是按照一组原子事实来定义的,原子事实可以用逻辑上独立的命题来表达。这就是本体论假设的最纯粹的表述,也是人工智能中一切工作的必要前提条件……”

不过,我愿意在德雷福斯论述的基础上再追加一点东西。首先,我认为,努力将自然世界表达为离散的片段代表了哲学史上的一个伟大的传统,也是传统形而上学的最令人瞩目的成就之一。其次,德雷福斯已经提到但表示轻蔑一点,那就是,这个伟大的传统还包含着另一个思想,霍布斯以一句“推理即计算”简洁地将它表达出来:

“当一个人进行推理时,他所做的不过是在心中将各部相加求得一个总和,或是在心中将一个数目减去另一个数目求得一个余数。这种过程如果是用语词进行的,他便是在心中把各部分的名词序列连成一个整体的名词,或从整体及一个部分的名词求得另一个名词。人们在数字等方面虽然除开加减以外还用乘、除等运算,但这些运算法实际上是同一回事。因为乘法就是把相等的东西加在一起,而除法则是将一个东西能减多少回就减多少回。……不论在什么事物里,用得着加减的地方就用得着推理,用不着加减的地方就与推论完全无缘。……根据以上所说,我们就可以定义或确定推理这一词在列为心理官能之一时其意义是什么。因为在这种意义下,推理就是一种对公认为标示或指明我们思想的一般名词的序列进行计算(就是说,加和减);当我们私下计算时,我说的是标示,当我们证明或者向他人证明我们的计算时,我说的是指明。”

霍布斯的计算是狭义的、具体的、最终归结为加和减的算术计算,今天的计算概念要抽象得多,涵盖面也广得多。计算的概念,经过莱布尼兹、布尔、弗雷格等的工作,已经包括布尔代数演算、命题演算、谓词演算等等,在图灵机的概念中达到顶峰。今天的(古典)人工智能学派也扩大了霍布斯的推理概念,将其推广到涵盖思维和其他大部分心理现象。

德雷福斯随后对本体论假设提出质疑。他的第一个质疑是现象学意义上的,通过反思我们的日常经验,他说,“在我们的日常活动中,我们并没有经验到世界是一组事实,我们可能贯彻这样一个分析这一点也并不是自明的”。  这个质疑本身包含一个可疑的跳跃。德雷福斯似乎从一个否定句:

(A)我们并没有经验到世界是一组事实。

跳到另一个否定句:

(B)我们经验到世界不是一组事实。

但是,人工智能工作者可以接受(A),但不接受(B)。经验到、觉察到什么东西,与相信什么东西不一样。在信念的情况下,我们的内省机制是充分活跃的,也就是说,信念的内容具有很强的透明性;我们很自然地从不相信事情如此推论到相信事情并非如此。但是,经验和觉察的情形是有区别的。假设你见到长期未见到的一位老朋友,你们相见甚欢,聊得很开心。由于你的注意力完全沉浸在对过去的共同时光的回忆中,你并没有觉察到他变老了(比如说生白发了),但这绝不意味着你觉察到他没有变老,因为,在这种情况下,无论他是否变老,你都没有觉察到。这样的例子在大量的科学语境中可以找到。我们日常生活中没有经验到罗素悖论、分子电子,但这并不给我们一个经验上的证据说,根本不存在罗素悖论、分子电子。因此,如果(B)不能从(A)中得出,即使(A)是对了,(B)也不能构成对本体论假设的否定证据,也就是说,从(A)中我们推不出本体论假设与文明的经验相抵触。由于德雷福斯更重要的反驳不在这里,我就此打住。

根据德雷福斯的看法,计算机要完成其工作,需要对相关数据进行计算。即使世界按照本体论假设可以用离散的数据来表达,这些数据是数不清的巨大。但是,并非所有数据对于计算机的工作是相关的,实际上,绝大部分是无关的。如何区分有关无关、重要不重要的数据呢?德雷福斯指出,语境(context)在这里起着决定性的作用。“……为了理解一段话,把一个问题结构化,或者识别一个模式,计算机必须按照一个语境选择和解释其数据,可是,我们如何将这个语境赋予计算机呢?”  德雷福斯发现,人工智能工作者在这里面临一个两难。一方面,必定总是存在更大的语境;另一方面,必须存在一个不需要任何解释的终极语境,否则就会碰上语境后退何时了的问题。

在其著作的第三部分,德雷福斯使用了后期维特根斯坦经常谈及的生活形式来讨论事实及其意义。他说,在人类日常生活中,一些事实与其他事实极其广泛地联系起来,以至于即使能对它们进行明确的表述,也很难对它们进行分类。人类的生活形式赋予事实以意义,使它们成为它们之所是,因此从来不会有通过大量由无意义的、孤立的数据构成的表进行存储和分类的问题。

德雷福斯的论证可以简述如下:

(1)不存在任何体现“终极语境”的事实。

(2)因此,也不存在“语境上独立的数据”。

(3)因此,世界可以按照语境上独立的数据而被详尽无遗地分析的本体论假设是错误的。

(4)因此,世界不可能最终被形式化。

(5)人工智能是不可能的。

在分析德雷福斯的论证及结论时,我们需要指出重要的一点。哥德尔曾指出了数学的“不可完成性”,在此对应的是“语境的不可最终形式化”,它们都体现了一种很深刻的思想:形式化方法不可能穷尽对数学和实在的终极刻画:在两种情形下,我们都碰上了某种边缘情况:即哥德尔语句的判定和“终极语境的形式化”(或者终极语境的有无),其实人工智能在实践上所碰到的大多数问题都处于这个边缘的内侧。德雷福斯试图在极端情形下得出某种结论,以此表明人工智能的基础是不稳的。

德雷福斯对人工智能的态度似乎是一种“全或无”(all or nothing)的态度,即只要一切实在领域能够全部形式化,那么人工智能就是可能的(在别的条件得到保证的情况下),否则,人工智能就是不可能的。在德雷福斯的论证中,我们也可以发现一个致命的缺陷,这个缺陷直接影响了他的结论的可靠性,也影响了他解释维特根斯坦后期哲学对于人工智能的含义的正确性。

计算机和人类心灵对于德雷福斯的论证来说具有对称性,也就是说,他的论证同时适用于人和计算机。但是,德雷福斯显然忽视了这种对称性。既然像他所说的那样,智能行为必须体现在针对更广阔的背景或语境来运用数据上,而后期维特根斯坦等的工作表明不存在终极的背景或语境,那么智能行为到底如何体现呢?这岂不是在说,无论对于人类还是对于计算机一切智能行不都是不可能的。但是,在这里,“全部的要点是,人类是有智能的,他不必是无所不知的,这样,机器为了有智能也不必比人类更接近一个‘终极语境’”。

现在让我们回到这一节开始时提出的问题上:“一切实在过程均可形式化吗?”我们的回答是,尽管我们不知道哪些过程是不能形式化的,但是生活形式理论(如果它是一种正确的理论的话)告诉我们,形式化之路可能是没有尽头的。无论人工智能的前景如何(这是属于经验探究的范畴),有一点可以肯定,它毕竟已经深深地改变了人类的生活形式。


    进入专题: 人工智能   现象学   哥德尔定理  

本文责编:gouwanying
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 科学哲学
本文链接:https://www.aisixiang.com/data/85381.html
文章来源:本文转自《思想与论证》,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统