返回上一页 文章阅读 登录

吴万伟:人工智能的哲学问题

更新时间:2021-09-29 15:03:22
作者: 吴万伟  
道家实践就是要学习老子的三宝:慈,俭,不敢为天下先。清虚自守,齐物而侍。[35]

   著名宗教哲学家,中国人民大学宗教学系教授何光沪谈到人类不仅没有把人性中的自由和“心”(如情感、想象、良心等等)等赋予人工智能,而且人工智能的物质材料是硅或一些稀有金属等没有生命的东西,因而无法摆脱自己的局限性。[36] 有意思的是,作者最近刚刚翻译的新加坡南洋理工大学教授李晨阳的文章正好谈到新型材料的问题,“人工智能技术的进步伴随着生物工程技术的进步。最近,康奈尔大学的科学家成功地实现了动态生物材料自下而上的构建,它是依靠人工新陈代谢驱动的,这种代谢代表不可逆的生物综合和耗散组装过程。他们通过编程让这种材料产生类似于真核微生物黏菌的自发移动行为。动态生物材料拥有像自动化模式产生和持续极化再生那样的性能。据报道:“人工新陈代谢驱动下的动态生物材料能够提供从前没有探索过的路径以实现具有再生和自我维持特征的‘人工’生物系统。”新陈代谢和生物综合是生命的特征。康奈尔大学农业和生命科学学院生物学和环境工程教授罗丹(Dan Luo)说:“我们在引进一种崭新的、类生命的材料概念,它是由自身的人工新陈代谢系统所驱动的。(虽然)我们不是在生产某种有生命的东西,而是在创造一种从前没有见过的更接近生命的材料。”当这种新技术与人工智能技术结合起来,可能从完全相反的方向满足人类“大脑延展”的目标。“人形机”(humanoid)不仅表明了类似人的非人的存在,而且证明了在具体的个体身上可能存在人和非人部件的混合体。[37]

   华东师大政治哲学教授吴冠军在谈到奇点时代的“长生不死”问题时说,“就是说过了2049年,我们的技术就可以保证很多人不死,不是说真的不死,而是说他可以不断换心脏、换肺,不断换身体器官,不断植入各种各样的仿生器官,从而能够接近不死,至少活两百年没有问题。”[38]这正好呼应了“新人类”的话题,即人工智能的人类中心主义的理念可能导致“人机协同的混合增强智能取代纯粹生物学的人。加上器官移植、再生医学、基因工程等技术,人之中的一小部分“权—贵”则可能在生物学+人工智能融合的新生命体系中完全不同于现在的人类。”[39]但即便如此,人工智能仍然无法帮助人们摆脱生死魔咒。罗伯特·诺齐克(Robert Nozick)在《无政府、国家和乌托邦》中设想一种“体验机器”,插上电源,我们就可以获得希望的那种体验。但他说真要这样做就是一种自杀。1987年的诺贝尔文学奖获得者约瑟夫·布罗茨基(Joseph Brodsky)曾说,“人的生活中很大一部分是无聊”。无论贫富都难逃无聊的折磨。有钱人太无聊了,因为金钱买来时间,而时间是重复性的。对穷人来说,无聊是其痛苦中最折磨人的地方。无聊代表了让你见识无限性的机会之窗,教导我们学会谦逊、合作、妥协、创造。[40]

  

   (三)伦理问题

  

   当前与人工智能有关的哲学往往集中在伦理学问题上:如有轨电车问题、使用人工智能的伦理问题、它对人的存在威胁问题以及隐私和数据安全问题上。但是,在加州大学伯克利分校法学院的阿敏·阿夫洛兹(Amin Ebrahimi Afrouzi)看来,这些都不是人工智能特有的问题,哲学家应该探讨专属人工智能的问题。这位身兼硅谷智能技术专家和法哲学博士生双重身份的作者认为,这个交叉领域应该包括(1)人工智能伦理学:一旦自私、自主的代理人争夺有限资源,伦理问题就出现了。另外,人工智能代理人如何对待对方也有相关意义如合作型人工智能代理人;(2)人工智能意向姿态:我们必须开发一种人工智能特有的语言来描述它想要什么如合作、尊重或者做什么;(3)模拟哲学:则使用计算机模拟学习人工智能并检验与人工智能有关的哲学解释。[41]

   至于具体的人工智能伦理问题,大致包括如下九类:1)失业、劳动等级差异主要与自动化有关;2)不平等,如何分配机器创造的财富;3)人性,机器如何影响人的行为和互动如机器依赖症;4)人工愚蠢,如何防止犯错误;5)种族主义机器人,如何消除偏见;6)安全,如何确保人工智能的安全;7)罪恶,如何保护自己不遭遇意外后果;8)奇点,如何控制日益聪明的系统;9)机器人权利,如何定义人工智能的人道主义待遇、法律地位以及机器的感情痛苦等。[42]

   就拿隐私问题来说,很多人都觉得在人工智能时代隐私受到破坏,但哲学探讨会揭示出一些发人深思的新情况。上文提到的《监控资本主义时代》对人在监控资本主义中的异化问题的探讨就很能说明问题。著名科技作家尼古拉斯·卡尔(Nicholas

   Carr)在为该书写的书评中尖锐指出,在脸书和谷歌等硅谷中的私有企业来说,人类生命成了原材料。监控资本主义的真正产品是对人类将来行为的预测:我们看什么,我们去哪儿,我们持有什么观点等。日常生活经验被蒸馏成为数据,成为私有企业的资产,用以预测或者塑造我们的行为,破坏个人自由和腐蚀民主。我们不是客户也不是产品,而是数据尾气之源。数据就意味着财富。更可气的是,在线监控逐渐被政客、官僚和大众认为是正常的甚至必要的,无须大惊小怪。隐私不是受到破坏而是被重新分配了,决定权从公民转移到了公司手中而已。[43]

   若拿高级人工智能机器是否应该被当作伦理存在来对待以及如何对待的问题来说,正如李晨阳所说,“人工智能机器是机器,却是一种拥有智慧的特别存在物。伦理学的每个概念,尤其是在西方的主流传统中,都是把人当作唯一的道德行为者(moral agent)和道德行为的施受者(moral patient),把世界上的所有其他生物都排斥在道德领域之外。随着环保意识的崛起,当今有些伦理学家开始将道德领域扩展,希望把生物有机体包括进来。即使我们同意高级人工智能机器能够和应该被当作道德行为的施受者,但究竟该如何对待它们仍然是远非清晰可见的。比如,世界各地的医院人工智能医生的情况越来越多,对它们的工作条件应该采用什么样的管理规定?是不是应该像我们对待真人医生那样,对其工作条件设置最低标准要求?电话和电脑现在已经拥有了内置的人工智能技术。这已经在很多根本方式上影响了人类,它们可能决定人类的命运。在此意义上,成功应对人工智能的相关伦理挑战甚至比应对人工智能的相关技术挑战更为艰巨。”在机器人伦理学上,儒家道德哲学能够为我们提供有用的资源。在李晨阳看来,儒家对伦理学的理解包括孟子的“软心肠途径”(the soft-heart approach),即伦理学源于和遵循不忍之心和荀子的“社会程序的途径”(the social wiring approach),即通过习得社会规范而变得有道德。如果遵循孟子的途径,或许应该在仿人机器人身上安装一个系统,以“不害人”作为压倒一切的原则,确保机器人不能采取极端破坏性的行动伤害人、伤害其他生命形式或者相互伤害。如果遵循荀子的进路,可能会安装能够指导人工智能机器的行为法则,却没有压倒一切的保护性原则,人工智能机器将主要完成所分配的任务,根本不考虑任务的性质。[44]

  

   (四)意识问题

  

   麻省理工学院瑞典裔美国宇宙学家迈克斯·泰格马克(Max Tegmark)在2017年出版的《生命3.0》中提出了生命演变的三个阶段:生物进化,文化进化和技术进化。生命1.0不能重新设计其硬件和软件,都由DNA决定;生命2.0 能重新设计软件,学习复杂的技能如语言、体育、职业等;生命3.0在地球上还不存在,但能重新设计软件和硬件。他提出了意识原则理论,即有意识的系统应该有信息储存能力,信息处理能力,独立性和融合性。如果没有意识就没有幸福、善良、意义、目的和美。不是宇宙给了有意识的人以生命的意义,而是有意识的人赋予宇宙以意义。传统观念认为人是地球上最聪明的动物,但人工智能的出现迫使我们放弃这个观念,变得更谦恭一些。[45]

   中国社科院哲学所研究员赵汀阳专门写过一篇文章谈到人工智能的自我意识问题。在他看来,“人工智能的危险之处不是能力,而是自我意识。如果人工智能拥有了拟人化的情感、欲望和价值观,必然更为危险,因为人的欲望和价值观正是一切冲突的根源。”他说,“只有语言才足以形成智能体之间的对话,或者一个智能体与自己的对话(内心独白),在对话的基础上才能够形成具有内在循环功能的思维,而只有能够进行内在循环的思维才能够形成自我意识。”正是语言的发明使得意识拥有了表达一切的功能和反思的功能,否定词的发明意味着在意识中发明了复数的可能性,成为人类产生自我意识和自由意志的关键条件。难怪他大胆地说,“哪怕人工智能处理数据的能力强过人类一百万倍,只要不具有反思能力,就仍然在安全的范围内。”[46]

   王蓉蓉也谈及道家对人能获得和丧失自我意识的问题。即便人工智能开发机器的自我意识,但它也能如道家指出的那样失掉自我意识吗?有如庄子曾经描述的境界:当一个人沉溺于手头工作的时候,他就可以忘掉自己的存在。让自己被物携带着走,心由是可以自由飞翔,乘物以遊心。庄子详细描述了这一过程:“臣将为鐻,未尝敢以耗气也,必齐以静心。齐三曰,而不敢怀庆赏爵禄;齐五日,不敢怀非誉巧拙;齐七日,辄然忘吾有四枝形体也。当是时也,无公朝,其巧专而外骨消。”《庄子?外篇》中所描绘的自我意识的暂时忘却与获得是不会轻易被人工智能所替代的。[47]

  

   (五)创造性问题

  

   与人工智能有没有意识密切相关的是创造性问题。牛津大学教授马尔库斯·萨托利(Marcus du Sautoy)在刚刚出版的新书《创造性模式》中提出了“机器真能创造吗?”有意思的不在于明确的答案,而是考察该问题本身意味着什么。英国《展望》杂志2019年3月初发表了一篇文章题目是“机器能创造吗?”,讲述了西班牙一大学的研究人员开发的作曲算法机器人(Iamus)出了一张由伦敦交响乐团演奏的古典音乐CD的故事。人们通常觉得人工智能无法做出概念跨越,进入新领域,但萨托利认为未必如此。他认为,艺术上的真正进步是在有人敢于打破常规,违背法则,用意料之外的方式结合起来而产生的。这种创造性同样出现在科学中。萨托利描述了一个名叫(Mizar)的制造数学定理的程序。制造的东西类似于阿根廷作家博尔赫斯(Jorge Luis Borges)的《巴别图书馆》,里面包括所有可能的书,是所有语言中的文字所有可能的排列组合。大部分是垃圾,但萨托利认为我们的“创造性概念就是与有限性绑在一起的。”如果我们认为创造性的本质在于和其他人一致,有目的地塑造材料,今天的人工智能当然离创造性还很远,但是如果“能够看到别人看不到的模式或者可能性是创造性的一个方面”,人工智能的艺术恐怕越来越难以和人的艺术区别开来。[48]

山东大学教授贝淡宁教授在“从马克思主义儒家视角看人工智能”一文中对比了谈到马克思主义和儒家对创造性的不同认识。在他看来,马克思主义看重实现多种形式的创造性工作的潜能,儒家则看重培养多样性社会关系尤其是与亲人的关系的潜能。“在高级共产主义阶段,发达的机器将生产人类需要的所有商品,我们将真正实现自由和平等,有机会发展我们认为合适的多方面才能。考虑到我们迫切需要创造性工作,多数人都将从实现创造性工作的潜能中获得快乐和满足感。从儒家视角看,马克思对人类美好生活的描述未免过于狭隘。创造性工作的潜力当然是人之为人的重要特征之一,但是,它总是人类的第一需要吗?它有必要成为每个人的第一需要吗?”从儒家视角看,关爱和照顾父母的工作不一定特别具有创造性却是美好和令人感到满足的生活所必不可少的。如果人工智能将我们从社会必须的工作中解放出来,(点击此处阅读下一页)


爱思想关键词小程序
本文责编:limei
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/128790.html
文章来源:作者授权爱思想发布,转载请注明出处(http://www.aisixiang.com)。
收藏