返回上一页 文章阅读 登录

吴彤:关于人工智能发展与治理的若干哲学思考

更新时间:2018-07-31 11:42:55
作者: 吴彤  

  

   【摘要】 针对人工智能发展的现状,着重分析如下问题:第一,智能与人工智能的概念;第二,人工智能发展背后的哲学意义,其中包括人工智能发展的本体论与认识论意义、人工智能发展面临的伦理学和政治哲学问题;第三,人工智能可能带来的社会治理问题,以及若干可以参考的治理建议。

   【关键词】人工智能 科学技术哲学  意义  治理建议

  

   2016~2017年可以说是“人工智能”年。在这近两年的时间里,以阿尔法狗(AlphaGo)及其系列为代表的“人机大战”开启了人工智能热,从学术界到企业界,从精英到平民,大街小巷所谈的大多是“人工智能”。其中,最主要的话题就是人工智能是否会超过人类,甚至会形成“人机杂合体”,从而变成新新人类,奴役或取代现在的人类。对于人工智能及其发展众说纷纭,其中既有深刻之见,也有浅陋之言,不管如何,讨论背后都蕴含着极为深刻的意义,如不深入揭示,则可能有意无意地产生某种遮蔽,因此有必要进一步讨论这个重大问题。

  

   关于人工智能的概念分析

   人工智能,这个概念的内涵与外延其实都非常丰富。

   首先是智能(intelligence)概念。何为智能,众说纷纭:就内涵而言,智能是一个历史和心理测评概念,主要是比对整体人类智力发展水平,以及依据一定的问题求解比对个体智力发展水平;智能概念是一种测评、手段性的概念,运用最多的是以人类智力发展水平比对其他物种特别是灵长类动物的问题求解能力如何;肖恩·莱格与胡特一起提出了对智能的理解——智能就是在各种各样的纷繁复杂的环境中实现目标的能力(集智俱乐部,2015:122)。实际上,以上对于“智能”的定义和理解,是一种功能意义或行为主义的理解。这让智能的操作变得可能,但并没有在根本上、实质上理解何为“智能”。人类智能实际上包含了“逻辑思维”能力、“直觉”能力、自主学习能力,以及许多应变策略甚至犯错误纠错的能力,就这个意义上讲,人类智能是一种通用的、历史演化的智能。人类的能力,就单个方面而言,不如许多其他物种,例如大脑协调小脑进行奔跑及其改变路线的能力不如捕杀猎物的豹子,视觉辨别的能力(它也需要大脑的思考与理解)不如空中盘旋搜寻的鹰隼。就历史演化而言,早期生活在野外的人类感知能力可能强过现代都市的人们的感知能力,例如,卡西尔在其著名的《人论》中就讲述过原始先民对于空间的感受是一种行动空间的感受,这种感受明显强于现代人类,然而,他们却没有几何空间或逻辑空间的理解能力;而现代人建立的空间概念,明显是欧式几何的空间,是逻辑的空间(如百度地图,或高德地图)。有鉴于此,下述对于智能概念的理解似乎不错:

   1)一个人的智能就是他理解和学习事物的能力(Someone's intelligence is their ability to understand and learn things);

   2)智能是一种思考和理解的能力,而不是依赖本能或无意识地做事(Intelligence is the ability to think and understand instead of doing things by instinct or automatically,Essential English Dictionary, Collins, 1990,转引自M. Negnevitsky,2005:1)。

   其次是人工智能(Artificial Intelligence, AI)概念。自第一台电脑诞生,人们就开始梦想制造一台像人脑一样会思考的机器。由于这个概念是将机器类比于人类,单指被人类建造的机器具有智力水平,具备智能,即人类建造的类似具有人之智能的机器,所以在概念上被称为“人工智能”。一般的人工智能概念是一种测试和操作意义的概念,最典型的测试是图灵测试。一般认为通过了图灵测试的人工实体是具有智能的(R. Neapolitan & X. Jiang, 2012: 2)。从功能上看,人工智能就是让计算机完成人类心智能做的各种事情(玛格丽特·博登,2017: 3)。

   在学科技术种类上,人工智能是计算机科学的一个分支,是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究主要包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来的人工智能,将会是人类智慧的“容器”,也可能超过人的智能。例如,有“现实版钢铁侠”之称的SpaceX公司,其创始人埃隆·马斯克(Elon Musk)提出“人工智能威胁论”,声称AI将很可能引发第三次世界大战。长久以来,对人工智能发动战争的恐惧一直是马斯克在公共场合发表言论的主论调。2017年8月,他与其他一百多人联名签署了一封建议信,呼吁联合国禁止研发“机器人杀手”(能致人死亡的自动武器)(埃隆·马斯克,2017)。

   在研究发展分类上,人工智能研究有两类:通用人工智能(Artificial General Intelligence, AGI)研究与类脑智能(Brain-Like Intelligence, BI)研究。这是完全不同的两类人工智能研究。

   通用人工智能特别强调两个特征,即强调与专用领域无关的通用性智能,强调具有多功能协同的整体性智能;但通用人工智能并不否认专用人工智能的价值。目前,通用人工智能的进展很慢,水平很低,离具有人类智能的目标还有很长的路要走。

   而类脑智能主要指,“受脑启发,以计算建模为手段,通过软硬件协同实现信息处理机制上类脑、认知行为和智能水平上类人的机器智能。目标是使机器以类脑的方式实现各种人类具有的认知能力及其协同机制,最终达到通用智能”(中科院曾毅研究员语)。类脑智能的进展目前也并不是很大,用目前居于前沿的研究人员的话说,只是万里长征迈出了小小的半步。

   就人工智能发展的阶段或目标而言,有三个。

   第一,狭义人工智能(Artificial Narrow Intelligence, ANI)阶段,ANI的特征:一是仅具备某项认知能力,实现某项技能;二是无法推广至实现其他功能。所以,狭义人工智能又称“弱人工智能”。例如,AlphaGo围棋程序这种人工智能,就是典型的狭义人工智能。即便是后来全新的强化学习算法阿尔法元——可以从零开始,通过自我对弈精通棋艺,堪称“通用棋类AI”——也是狭义的人工智能。凡是具有特定、专门用途的机器人,都属于狭义人工智能,如语音/面孔识别、人工智能翻译系统、无人机、自动驾驶汽车、工业机器人、家用扫地机器人,等等。目前这个领域的人工智能发展最为迅猛,而且有望在各个领域获得广泛应用。2016~2017年引起社会轰动的也主要是这个方面,这也是人工智能界发展的主流目标。

   第二,通用人工智能阶段,又称为强人工智能阶段,即指具有人类水平的人工智能。它的主要特征:一是具备所有的人类认知能力;二是可以由同一智能系统执行不同的认知功能。这个阶段的研究正在展开,但是目前远未达到其愿景目标。

   第三,超级人工智能(Artificial Super Intelligence, ASI)阶段,其预期的主要特征:一是在所有领域超过人类;二是所有的认知效率超过人类认知。这个阶段还远未到来,是一种遥远的未来预期。而且,究竟是否需要把人工智能发展到此阶段,目前存在重大争议。

   人们对人工智能的争论恰好就处于这样的境地:身处人工智能发展的第一阶段、初级阶段,即狭义人工智能阶段,而思想已经飞跃到第三阶段,即超级人工智能阶段,想象着这种强大无比的人工智能是否会取代人类,或奴役人类。人们既想发展人工智能代替人力劳作与思考,又担忧有一天强大的人工智能把人类作为自己的奴隶而奴役。大多数人工智能专家不主张发展强人工智能,当然也会有人工智能专家认为应该发展,不用担忧。

  

   关于人工智能发展背后的深刻哲学意义

   人工智能发展的本体论与认识论意义。人工智能,是人类创造的机器智能,首先仍涉及这个智能为何种智能的认识论问题——是类似人的智能还是非人的机器或其他类型的智能。这涉及发展人工智能是否必须依赖于人类智能,或者必须仿造人类智能而去“克隆”机器。其次,人类能否发展非人的“其他人工智能”?假如我们不是按照本体论的意义定义人工智能,而是从功能角度定义人工智能,那么,比人解决问题更为快速、更为清晰和更为强大的智能就是我们需要的智能,狭义的人工智能是可以实现这一目标的。智能的核心是意识,是心智,让人工智能具有类似人的意识,或者非人的意识,或者超人的意识,实在是一个极为深刻但又极难的问题。类脑人工智能走的道路是发展类似人类的智能,但是其他人工智能研究走的路线不一定是类人的路线,就功能主义而言,其他人工智能解决某种类型问题的能力,可以肯定的说,必然超越人类;因为,人工智能在可形式化的、可表征化的数据处理方面,的确大大地强于人类,而且这种优势仍然在不断地扩大。这在本体论意义上并不可怕,可怕的是其社会学意义,这意味着它替代了人类许多行业,可能引起大规模失业。而事实上,人工智能之所以能够让大量的人失业,是因为它确实在各个产业内巨幅降低成本,从而增加更大利润空间。在这个意义上说,引起大规模失业,问题不在人工智能本身,而在资本的利益驱使。这类问题是社会如何预先应对失业和风险、管控资本的野心的问题,而不是产生新的“物种”可以奴役人类的问题。

人工智能专家试图在本体论上解决此类问题的研究进路,即类脑人工智能研究进路。所谓类脑,就是让人工智能在结构机理上与人脑相似;在实现机理上全部采用类脑神经网络,使之在网络结构、脑区、神经环路、神经元功能和计算模式上接近人脑,而且从单任务态向多任务、多通道、多脑区协同处理发展。此外,类脑还表现在认知行为上类人,即能感知现实世界,并对环境做出实时反应,自适应能力不断增强;能对不同类型的问题进行识别,设计问题求解步骤,自行解决问题;从自主学习过程上模仿人,包括学习人类动作。通过类人的智能行为实现与现实世界人—机—物的持续交互、不断地自主学习、自主地智能生长与演化。所以,从哲学上看,类脑人工智能的科学发展方向就是通过类脑机理研究达到类人行为上的强人工智能;其他人工智能研究,包括通用人工智能,基本上是一种功能主义的研究,即人工智能在解决问题的领域足以和人类一样聪明,或比人类更强。问题在于,我们人类在面对未来时,是否会满足于有一个只在功能主义意义上解决问题的“伙伴”,这个答案分析起来其实也是极其复杂的。我们手里握有一个智能手机时,通常会满足于它是一个功能主义的“工具”,是为我所用的工具。但是我们对面有一个“人”,它是你的智能助手,或是在未来社会里(假定实现了通用人工智能)你偶遇的一个聊得开心的“人”,你想要判断它是人还是非人吗?这是否是一个问题呢?是否是一个极其重要的先决条件呢?人工智能所涉及的认识论或本体论问题,就是它是否具有人的意识与身体。近年来,反对人工智能一定要具有人之意识的人,从认知科学哲学角度提出涉身认知观点,认为机器不可能具有人之肉身,因此机器永远不可能有人的意识与智慧。但是如果意识如同软件可以上载到不同硬件上的观点可以成立的话,那么,(点击此处阅读下一页)

本文责编:frank
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/111273.html
文章来源:《学术前沿》2018年5月下
收藏