返回上一页 文章阅读 登录

梅剑华:人工智能与因果推断——兼论奇点问题

更新时间:2021-11-06 21:12:29
作者: 梅剑华 (进入专栏)  
目前为止深度学习的主要成就不过是依赖于曲线拟合,尚停留在事件相关性层面上。

   在干预和操作层面上我们可以提出如下问题:如果我对某一过程进行干预会发生什么?如果我对x进行干预,y会如何?例如我们可以问:如果我吃了奥美拉唑,胃疼会缓解吗?如果我戒烟,身体会好转吗?这种干预由珀尔发明的do演算刻画。P(y│do(x),z)指我们对X固定为值x,并观察到事件Z=z,事件Y=y的概率。do演算是珀尔的发明,此处不赘。

   在反事实和想象层面上我们可以提出如下问题:如果我这样行为,会有什么结果?是x因果导致了y吗?如果x没有发生,y会发生吗?例如我们可以问是阿斯匹林缓解了我的头疼吗?如果荆轲没有刺秦,荆轲会活下来吗?如果我喝酒了,身体会更好吗?P(yx│x‘,y’)是指我们实际上观察到的事件X=x‘和事件Y=Y’,如果X=x时,事件Y=y的概率。李冲刚上大二,现在的兼职工作薪水是5万;如果李冲大学毕业,他的年薪是10万的概率为多少?在给定实际情况的前提下,能够进一步去想象并预测一种反事实状况,这才是真正的人工智能。

   不妨考虑这样一个情景来阐释这三个层面,假设存在如下连续事件构成的情景:法庭宣判犯人执行死刑、队长下达任务、枪手甲和乙分别同时开枪、犯人死亡。(ibid.,pp.39-46)

   在第一个观察层面,我们可以问这样的问题:如果犯人死了,那么法庭宣判没有?由果溯因,我们知道犯人死了是因为枪手开枪,枪手开枪是因为队长下达任务,队长下达任务是因为法庭宣判,从而得到法庭宣判的答案。第二个问题可以这样问:如果甲开枪了,那么乙开枪了吗?这是一个相关性问题,甲和乙开枪是互相独立的事件。但我们可以分析,如果甲开枪了,那么队长下达了任务。和甲一样,乙接受到了任务,那么乙也开枪了。在第二个干预层面,我们可以追问:如果杀手甲不等队长下命令就开枪,那么犯人是死是活?答案很简单,犯人死了。这种干预直接导致了犯人的死亡。在第三个想象层面,我们可以进一步追问一个反事实的问题:如果甲不开枪,那么犯人还会活着吗?给定实际犯人死亡,那必定两个杀手都开枪了,因此肯定队长下了命令,法院下了判决。即便甲不开枪,乙还是会开枪,导致犯人死亡。

   通过对这三个层面的分析,珀尔认为机器只有攀登到可处理反事实推断的层面,才会具有真正的因果推断能力。他把反事实推断作为因果推理的核心特征。珀尔区分了机器如何获得因果知识和机器如何表达因果知识这样两个问题,我们不妨分别称之为“获得问题”和“表达问题”。珀尔的工作聚焦于“表达问题”。机器要想能够表达因果知识,首先就需要为因果关系构造一个形式化模型。但是如何让机器获得因果知识,这一点则更为困难。为了回答这一问题我们需要进一步回答另外两个问题:第一,人的因果认知模型到底是什么样的。第二,因果认知模型是否必然依赖其生物演化机制。

   三、从因果推断到奇点问题

   在《奇点:一个哲学分析》一文中查尔默斯论证说:人工智能发展奇点的出现在逻辑上可能的。(cf.Chalmers)以逻辑的可能性论证为基础,查尔默斯提请科学家必须慎重对待奇点问题。因为这是关乎人类未来走向的一个重大哲学问题。奇点的出现哪怕只有1%的可能性,都需要我们严肃认真地来对待。

   查尔默斯为奇点的可能存在给出了这样一个论证:

   (1) 将会出现AI(不会太久,缺乏反对证据);(2)如果会出现AI+,那么也将会出现AI+(很快,缺乏反对证据);(3)如果会出现AI+,那么也将会出现AI++(很快,缺乏反对证据);结论:(4)那么将会出现AI++(不会太过遥远,缺乏反对证据)。

   他这里所说的“不会太久”是指在一个世纪以内,“很快”是指在几十年之内,“不会太过遥远”则是指在几个世纪之内,“缺乏反对证据”是指缺乏阻止智能系统运用自己的智能能力去制造智能系统的证据。同时也可能存在一些外部偶然因素比如大灾难之类。从人工智能内部来看,似乎不存在反对这种可能性存在的证据。人工智能的核心是算法问题,其进化主要基于算法,而计算速度每两年就会翻倍。在人工智能达到人类水平之后计算机会进一步加速。一年之后速度会再次翻倍,如此加速,时间不断缩减,六个月、三个月、一个半月,……直至达到奇点。

   此处我们并不具体分析查尔默斯奇点论证的有效性,而是致力于澄清奇点反对论者关于奇点问题的三种主要误解:算法问题、主体性问题和生物基础问题。三个问题彼此关联,相互支持。

   首先,是关于算法的问题。

   目前人工智能的算法大概分为三种:基于演绎推理的算法(符号逻辑推理)、基于归纳推理的算法(概率推理)、结合归纳和演绎的算法因果推理。对算法的批评有两种,第一种来自哥德尔定理应用的批评,针对的是上述三种形式推理系统。由于哥德尔定理表明一切形式系统均具有不完备性,因此这种批评是一般性的:人类可以发现形式系统的局限,但计算机发现不了自身的局限。针对这一类型的批评,图灵在《计算机与智能》中早有回应:“尽管已经证明任意一台特定机器的能力都是有限的,但它没有任何证据表明,人类的智慧就没有这种局限性”。(Turing,p.446)人类也会经常犯错,以判定哥德尔定理来质疑人工智能,实际上是要让机器具有人不具有的能力。自20世纪60年代以来,人们对于这个问题一直有广泛的争论。卢卡斯认为,人类要比任何机器都复杂,机器不能识别哥德尔定理的真假,但人可以:

   给定任何一致的和能够做初等算数的机器,存在一个这台机器不能产生的为真的公式——即这个公式在此系统内是不可证明的——但我们能够看出这个公式为真。由此推出,任何机器都不可能是心灵的一个完全或充分的模型,心灵在本质上不同于机器。(转引自程炼,第14-15页)

   查尔默斯对于这一批评的回应是:这个思路基本上还是图灵式的。在《有意识的心灵》第四部分关于人工智能部分,查尔默斯谈到:

   没有理由相信人类能够看到关于哥德尔定理的真相,或者,充其量,我们能够看到如果一个系统是一致的,那么其哥德尔语句是真的,但是没有理由相信,我们能够确立任意形式系统的一致性。……所以,很有可能,我们中的每一个都能模拟形式系统F,却不能确定F是否是一致的。如果是这样的,我们将不能看到我们自己的哥德尔语句是否是真的。(查尔默斯,第396页)

   在《皇帝的心脑》中,彭罗斯也给出了机器不能充分表现心灵的论证。但彭罗斯的论证“不会得出任何机器都不等价于人的全部数学能力的结论。”(邢滔滔,第105-108页)这类批评者对机器的要求超出了对人的要求。形式化系统本身的局限和人本身的局限一样是不能苛责的。

   关于算法的第二个批评针对既有人工智能推理方法。从因果推断来看,当前机器学习所依赖的概率推理具有一个根本缺陷:它的模式是大数据小任务,通过获得大量数据,来解决一个专门任务。前面已经提到过真正的人工智能应该是小数据大任务,基于有限的信息,来解决一个复杂的任务。人类不是通过暴力搜索法来理解认知世界的。反事实因果推理是人类认识世界的模式,让机器具备这种能力才是人工智能发展的未来方向。我们在自动驾驶汽车上装置因果推理程序,使得汽车在即使遇到缺乏数据的情况下,也可以及时进行自我调整。因为这样的自动驾驶汽车不是考虑与突发事故相关的事物,而是可以思考到底是什么原因导致它遇到事故。查尔默斯在接受既有算法的前提下,认为奇点是逻辑上可能的。拥有因果推断能力的机器人比拥有概率推理能力的机器人更强大,更接近于人的真实推理。所以我们对于算法的因果理解可以加强查尔默斯的论证。

   关于算法的第三个批评最为常见,即认为人类的心灵不能为算法所穷尽。我们不妨在智能和心灵之间加以区分,计算机具备智能,但人类是有心灵的。计算机可以模仿人类心灵中的智能部分,但心灵所具有的感受、意识、理解的非智能部分在原则上缺乏算法。而且这些心智现象具有相当复杂的生物机制,机器也不能模拟这些生物机制。如果机器不能模拟非智能的心智部分,那么它就不可能像人一样,我们既实现不了强人工智能,更不可能达到奇点。所以算法、主体性和生物基础三个问题互相纠缠,回答其中一个问题,势必要牵连到其它两个问题。这里我们可以先聚焦主体性问题,再考虑生物机制问题。

   其次,是关于主体性的问题。

   人生在世,我们与周遭世界打交道,因而形成了关于世界的认知。而与人类主体相关的意识、意向性、感受、理解、责任、自由意志、规范性等等似乎并不能为机器所拥有。

   塞尔和布洛克认为,即使机器可以模拟人类的大脑,但也并不意味这种模拟自身就是具有心智或智能的。机器能复制我们的行为,但它忽略了人的内在的层面:意识、理解和意向性等。(cf.Searle;Block)智能不单纯是一种信息加工处理,算法实现不了完整模拟。图灵指出了这类批评的一种极端情形:“你要肯定一台机器是否能够思考,唯一的途径就是成为那台机器,并且去感受这台机器的思维活动”(转引自博登编,第73页),这与内格尔提出的我们“成为一只蝙蝠会是什么样”的这样一种反思思路接近。图灵指出,如果机器能够通过对话测试,就可以认为其是具有意识的。侯世达的核心主张虽然与主流人工智能保持距离,但是在这一点上则和图灵的理解基本一致:

   意识是一种极其罕见的复杂组织的物理模式,而不仅仅是传统的物理活动……我们所知的属于我们自己的意识不过是人类大脑的物理活动……关键的是组织的模式,而不是构成物的本性。(侯世达,第338、339、346页)

   机器是否具有意识,这一问题至少部分地和我们对心身问题的理解相关。如果你接受物理主义立场,认为一切都是物理构成的,你就会和侯世达一样认为意识是一种物理模式。如果人类具有意识,那么机器也具有意识。通常我们把大脑产生的意识分为功能性意识和现象意识却(感受性层面)。(参见查尔默斯)功能意识具有因果效力,现象意识不具有因果效力。机器可以模拟前者,但机器能否模拟现象意识却并无定论,有研究者指出,我们可以对感受质(qualia)进行模拟,发展出一套三层(亚概念的、概念的和语言的)算法。(cf.Boyles)近年来兴起的情感计算也致力于在这一方向上推进,努力让机器在外显行为上具有人类情感;通用人工智能研究者(如王培的纳斯系统)则力图追求让机器自身拥有情感。总之,这些努力都是要为主体性发展出一套算法。但是将主体还原为算法,会遭遇人们的直觉反抗:人类心灵是算法不可以穷尽的。是否支持人们的这样一种抵抗性信念,实际上已经成为了人工智能哲学领域的永恒之争。这里需要特别指出的是,心灵是否可否完全被算法穷尽,这不是一个纯碎概念能够解决的问题,对于它的回答还需要依赖经验科学。

而无论机器是否具有现象意识,如果我们能够让机器具有因果推断能力,机器就可以具有一定的独立的主体地位。因为在这种情况下,它可以在考虑反事实的情况之下进行推理和行动。如果机器人开始使用反事实的语言交流,例如他们说“你应该做得更好”、“你应该把手上的砖递给我,因为我在等你,而你递给了别人”、“你应该去把厨房收拾干净”,我们就可以说机器人具有一定程度的自由意志。当人在说我应该如何的时候,他已经考虑了各种反事实情况。如果在这个意义上机器人具有了自由意志,那么我们也就可以对其进行追责了。如果我们能够对机器人进行某种程度的追责,那么追责的标准就在于机器人运用何种算法上。假设机器人甲的运行建立在符号推理算法的基础上,机器人乙的运行建立在概率推理的算法的基础之上,机器人丙的运行建立在因果推理的算法上,机器人丁的运行建立在类比推理的算法上。(点击此处阅读下一页)


爱思想关键词小程序
本文责编:admin
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/129498.html
文章来源:哲学研究
收藏