返回上一页 文章阅读 登录

吴万伟:人工智能的哲学问题

更新时间:2021-09-29 15:03:22
作者: 吴万伟  
而且以指数级的速度快速发展;2)我们将让人工智能拥有通用智能机器;3)我们用芯片制造人类智能;4)智能可以无限扩张,5)一旦制造出超级智能机器人,它能解决我们的大部分问题。但实际上1)智能不是单一维度的,比人聪明的说法没有任何意义;2)人没有像瑞士军刀那样通用目的的心灵,人工智能也不会;3)采用其他媒介模仿人类思维代价高昂,思维方式与人不同是人工智能的主要资产;4)智能维度不是无限的;5)智能只是进步的一个因素,思维只是科学的一部分。[21]

   不仅有人对人工智能的技术前景表示怀疑,甚至觉得人工智能热潮就是个骗局。人工智能是现在用得最广泛、定义最松散和最容易误解的术语。2018年前8个月英国六家主流媒体发表的760篇文章中,媒体对人工智能的报道主要是企业本身,60%的文章集中在新产品或者发布会之类,三分之一来自企业,12%明确提到大富豪马斯克(Elon Musk)。[22]

   剑桥大学智能未来研究中心执行主任斯蒂芬·卡弗(Stephen Cave)指出,作家卡夫卡(Franz Kafka)在其1915的小说《审判》中想象了这样一个复杂和不透明的系统:人被分为胜利者和失败者,但使用标准并不清楚。被评判者不知道收集了什么数据,也不知道与什么数据进行了比对,没有人愿意为系统的决定承担责任,人人都声称只负责分管的那部分功能。主人公约瑟夫K无缘无故被逮捕,最后像一条狗一样被处死。快进100年,人工智能被批评家描述为类似东西:模糊不清,无须承担责任。其历史很长,与国家和企业权力有千丝万缕的联系,主要服务于政府、军方和大企业的利益。“人工智能”中的智能不是人类个人智能而是官僚制度的系统性智能。它的确有技术可以带来更好的医疗服务或更具针对性的在线学习,但可能存在不公平长期化,体现从前的偏见等问题。[23] 哈佛商学院教授肖珊娜·佐伯芙(Shoshana Zuboff)在新书《监控资本主义》中指出令人担忧的现象:将一切数字化给予技术公司无限的社会权力。其理论核心是“行为过剩”(behavioral surplus)概念,技术公司利用改善服务来收集数据,用更多数据卖广告,再预测甚至影响用户行为并创造“监控资本。”谷歌创造和完善监控资本主义的方式与一个世纪前通用汽车公司的管理资本主义一样,但不仅仅是监控范围更大,而是新的经济秩序、市场形式和积累逻辑。“管理资本主义”将身体自动化,监控资本主义将心灵自动化。消费者在追求自我实现的目标中被消费心理劫持。[24]

   英国哲学家朱利安·巴格尼尼(Julian Baggini)说科学对世界的去神秘化是一把双刃剑,在带来好处的同时也带来风险,用道金斯的话说,把人变成“生物学机器人”。[25] 小说家戴夫·艾格斯(Dave Eggers认为世界将变成数字监狱,人们心甘情愿地进入专制世界,实现了梦想,却丧失了自由。[26]

   总之,人工智能本身不是恶魔,重要的是我们如何防范风险,开发者积极嵌入保护性措施以免其被恶意使用。现在下结论那一方正确还为时尚早。[27]

  

三、人工智能的哲学问题

  

   读者或许已经注意到在上文介绍人工智能尤其是谈到对人工智能的评价时,不仅涉及技术问题更与哲学问题密切相关。本节简要论述人工智能涉及到的哲学问题如死亡、伦理、意识、进步、创造性等。

   在英国皇家学会副会长阿利斯泰尔·麦克法兰(Alistair MacFarlane)看来,人工智能这个词让人误入歧途,似乎赋予机器能动性,更好的说法应该是“人工知识”(Artificial Knowledge)。创造机器智能是巨大的挑战,因为智能在本质上指的是使用已经学到的东西对付崭新的意外。他认为我们需要区分三大概念:信息、知识和智慧。它们分别反映了我们与现在、过去和将来的关系。信息告诉我们世界现在如何;知识告诉我们基于积累的过去经验应该做什么;智慧指导预测和建议,告诉我们在新环境下应该怎么做。信息是可分享的有用模式,知识是可验证的真信念,只有明确的以语言为基础的知识能够轻易靠书本或机器传播,但很多知识是心照不宣的。智慧不是信息而是对付难以预测的场景的能力。人与机器的潜能差异包括技能差距、知识差距、人格差距。人与机器之间的技能和知识差距在逐渐扩大,机器赢得人这种程度的智能、同感和情感潜能恐怕还很遥远。我们的终极挑战不是进一步开发更先进的技术,而是学会如何以一种新的社会形式与机器共处。科学家技术人员可能发现挑战令人兴奋,但后续的政治社会和经济困难可能让其余人觉得困难重重。[28]

  

   (一)人工智能本来就是哲学问题

  

   牛津哲学教授卢西亚诺·弗洛里迪(Luciano Floridi)认为以人工智能为代表的第四次革命是人类重新定位人性和自己在宇宙中的位置的演变过程的延续,是对人类自恋的又一次打击。科学改变我们认识的方式有两种:一种是外向--世界,一种是内向--自我。他引用弗里德尔·韦纳特(Friedel Weinert)的书《哥白尼、达尔文、弗洛伊德:科学历史与哲学上的革命》说,哥白尼的日心说动摇了人是宇宙中心的假设,达尔文显示人和其他物种拥有共同的祖先,一样依靠自然选择进化演变,弗洛伊德认为心灵不是纯粹的理性,受到潜意识的影响。以电脑鼻祖图灵为代表的人工智能挑战了人类的优越性。他强调了信息哲学的重要意义。哲学之所以特别有用就是因为它能构建和改善我们需要的思想工具以便对付遭遇的最大挑战。我们进入了历史的转折点,从模拟世界到数字世界的革命性转变和信息技术的快速发展改变了生活的每个方面:不仅改变了我们的行为,还改变了我们理解世界的方式、我们与世界的关系、我们看待自己的方式、与他人互动的方式、对更美好未来的希望。[29] 牛津大学物理学家大卫·道奇(David Deutsch)则更是直言不讳地说,通用人工智能(AGIs)研发根本不是电脑科学或者神经生理学的问题而是哲学问题。他说,“我们把不知道如何编程的任何东西都称为‘人类智能’。”美国哲学家约翰·塞尔(John Searle)在电脑出现之前就说过,蒸汽机和电报是解释人类心灵如何工作的隐喻。创造性的存在使人们不可能永远被奴役。我们应该停止把教育看作灌输---看作传输现有知识,让现有价值观得到驯服地实施的手段。[30]

   塔夫茨大学认知研究中心丹尼尔·丹尼特(Daniel C. Dennett)是哲学家,也是神经科学、语言学、人工智能、电脑科学和心理学方面的专家,他重新定义和改造了哲学家的角色。他在“哲学家遭遇人工智能”一文中提到:人工智能在很大程度上就是哲学。常常直接与立刻辨认出的哲学问题相关:心灵是什么,意义是什么?理性是什么?感知中辨认出物体的必要条件是什么?怎么做决策,如何为决策辩护?但哲学家对此似乎并不热心。很多人工智能项目是在探索做事的方式,更像思想实验而不是实证性实验。哲学家则往往将人工智能工程看作顽固的傻瓜不断尝试把圆形变成方形:我们已经证明这行不通,停下来吧,傻蛋。人工智能给哲学家提供了新问题和新解决办法,还有更多可供思考的新原材料。[31] 这个观点得到伦敦帝国理工学院认知机器人学系教授默里·沙纳汉(Murray

   Shanahan)的支持,他在《技术奇点》(2015)一书中说“人工智能最终提出的问题是苏格拉底问题:我们应该如何生活?” [32]

   人类之所以担心被超级智慧机器所奴役,之所以把拥有超级智慧的人工智能看作生存的威胁是因为我们依据智能水平为自己的权势和地位辩护。在剑桥大学斯蒂芬·卡弗看来,人类的最大威胁不是人工智能而是天生的愚蠢。他说,一个人是否有智慧,不仅是指其智能水平,还是一种价值判断,因而是政治性的。在西方历史上,那些被认为智慧不足的人可能面临着被殖民、被奴役、被绝育、甚至被杀戮的风险。难怪纽约学者凯特·克劳福德(Kate Crawford)注意到对人工智能的担忧主要出现在西方白人中间,因为他们处于社会等级的最高层,新智能产品的出现将使他们损失最大。如果对智能的概念发生变化,如东方文明认为有智慧的人不是有权统治他人的人而是传播智慧和为天下带来太平的人,是嘲弄陷入虚荣的权力陷阱的人,我们还担忧比自己聪明的机器人吗?[33]

  

   (二)死亡问题

  

   高奇琦在“向死而生与末世论:西方人工智能悲观论及其批判”中谈到人工智能悲观论的基督教起源问题。在高看来,悲观论实际上是西方基督教叙事中的最新版本,最终可以追溯到西方哲学对待死亡的态度。末世论是基督教中的经典叙事,因为人性恶,所以人类的历史将会终结于世界末日。人工智能的发展在本质上为末世论提供了新的叙事场景。人类不应该去充当神的角色,更为激进地挑战神的领域,在未来必将付出更大的代价。因此,人们的恐惧心理也在与日俱增,正如曾经说过“学习哲学,就是练习自杀”的丹麦哲学家索伦·克尔凯郭尔(Soren Kierkegaard)在《恐惧与颤栗》中描述的场景。西方关于人工智能的观念实际上就是一种自杀论,推动人工智能的进步,就是练习自杀。海德格尔思想中的一个重要概念是“向死而生”。海德格尔认为,偶然性就是人的意义本身,或者说人完全生活在偶然性之中。海德格尔的观点呼应了中世纪神学家托马斯·阿奎那(Thomas Aquinas)的“人本身没有终极意义,只有上帝才有终极意义”的观点。阿奎那的“灵魂不死”说明人世的终结并不是终点,人生在世,只是灵魂的一趟旅行。与西方传统相反,中国人对待死亡有两种态度:儒家的“避而不谈”和道家的“举重若轻”。庄子强调“安时而处顺”,用一种自然洒脱的心境来面对死亡,把自然的观念发挥到极致。这与海德格尔忧郁悲伤的心情完全不同。西方人用死来理解生,相比之下,中国人则用生来理解死。在西方文化当中,死亡就意味着结束、终结和灭亡,“向死而生”思考的结果就是人工智能终将统治世界和统治人类,并最终导致人类的被统治或者灭亡。但是,从生来思考这一问题则意味着新生、重塑和凤凰涅槃。相比西方的在悲观情绪和恐惧与颤栗,中国人对待人工智能的态度相对温和和健康,有一种谨慎乐观的态度,可能成为人工智能发展中的主流思想。[34]

美国洛杉矶罗耀拉大学终身哲学教授王蓉蓉在“机器人能否循道而行?道家哲学与人工智能”中对此问题有更详细的阐述。作者探讨了三个议题“气之生命和超越:道家之人与人工智能”、“对真的终极追求:人工智能技术的道家伦理框架”和“阴阳智慧:人工智能可从道家哲学中学到什么?”道家哲学认为,理解和分析人体的最重要方式之一,是通过区分三大要素:形、气、神。“气”成为身体中“形”与“神”的协调者。心和身通过“气”统一起来或产生互动。人不可能仅仅是“气”的流动而已;“神”显示了“气”流动的更深层次内涵。人类生命不仅仅是简单的信息、数据和网络的组合体。人的生命本身是非线性的、动态的、自我组织的复杂系统,是从多层次组织起来的信息交换能量以便维持生存和发展。计算机算法为“气”的一种流动形式,但人脑不仅做出符合逻辑的决策(视为算法)而且做出情感的复杂运算,这是机器所做不到的。庄子赞赏特别的道德人,即真人。这是人的最高境界。能“循道”而为,即意味着将自己的行为模式纳入到“道法自然”之中。道家思想认为,不可预测性和变化的不可避免性实际上支配了我们的日常生活。它帮助我们挑战秩序和稳定性的线性的因果关系思维。变化不是简单控制以从一个稳定状态转向另一个状态,变化是生命的组成部分,我们不应该回避技术变化的现实。(点击此处阅读下一页)


爱思想关键词小程序
本文责编:limei
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/128790.html
文章来源:作者授权爱思想发布,转载请注明出处(http://www.aisixiang.com)。
收藏