返回上一页 文章阅读 登录

吴彤:关于人工智能发展与治理的若干哲学思考

更新时间:2018-07-31 11:42:55
作者: 吴彤  
机器意识依然是可能的。

   由于有上述担心,所以有人提出一种解决方案,即以实施人机结合的方式,如脑机接口,生成某种半人—半机器的“人”(赛博格),这被称为“人机协同的混合增强智能”。在某个微信公众号上关于该不该研究强人工智能的争论中,有学者认为,人机融合可以让人的智能和机器的智能协同发挥作用。人有知识,机器长于采集数据;人有经验和常识,机器则长于进行公理推理;人有直觉,而机器长于逻辑。当人和机器有了足够的默契,人能理解机器如何看待世界,而机器也能熟悉人的所思所想,未来的机器也可以有一些特殊特定的意向性(弥补人类认知的不足),而当两者成为搭档甚至知己时,强人工智能也就到来了。“人机协同的混合增强智能”作为人工智能2.0的一个重要方向,旨在通过人机交互和协同,提升人工智能系统的性能,使人工智能成为人类智能的自然延伸和拓展;通过人机协同更加高效地解决复杂问题,具有深刻的科学意义和巨大的产业化前景。人机融合还受到了开始于2000年的四大融合技术(纳米技术[Nanotechnology]、生物科技[Biotechnology]、认知科学[Cognitive Science]和信息技术[Information Technology])观念发展的支持。但是,在本体论和认识论上,这种方案仍然有一些需要讨论的问题。首先,如何融合?是一种松散地联合还是在硬件上紧密地融合?其次,融合中谁起主导作用,是“人的部分”指挥“机器的部分”,还是相反?(Weld D.S.; Mausam C.H.L. and Bragg J., 2015: 89)

   由此可见,人工智能的发展在理论上和实践上都面临一大堆问题。那种对于人工智能发展的极端担心、狂热追捧,以及不加分析的一概而论的意见,都如同一个硬币两面中的一面,都是不切实际的,都无法透彻理解人工智能及其发展带来的社会问题。我们需要细致、深入的思考。

   人工智能发展面临的伦理学和政治哲学问题。人们对人工智能发展最主要的担心,是人工智能强大到奴役人类。而关于奴役的思想,源自人类本身。这种担心其实不仅有深刻的人类中心主义的观念,而且带有强烈的、根深蒂固的“等级—区隔”的政治哲学观念。在进化论的视野里,人类这种高等灵长类的智能似乎居于所有智能最高等级的位置。人类对其他物种的支配、使用或奴役,似乎有一种自然正确性(natural right)。人类还把这种自然权利置于生命安排中,似乎有一种自然的等级制度或秩序、一种天然的高等生命支配低等生命的权力与秩序。这是人类中心主义的理念。在人类社会,平等、自由本来应该是一个民主社会的共有理念,社会主义社会作为民主社会的一类也不例外。人生而平等,是人权的基本原则。但人类中心主义的“等级—区隔”理念何以渗透到人类社会中呢?福柯、阿伦特以及近年来的阿甘本都分析过这种等级镶嵌的权力如何以“政治正确”的名义渗透到生命层面、物种层面和种族层面。不仅如此,人类在自己的生活和社会内部也进一步制造并隐秘地实施这种“等级—区隔”,把社会达尔文主义视为当然。例如,第二次世界大战期间的纳粹,就把犹太人视为低等的人、“人类中的渣子”,把犹太人从人类中“区隔”出去,关入集中营,甚至实行集体屠杀。“人—动物”关系中的等级制人类中心主义在这里变成了“人—人”关系中区隔性的人类等级主义,在这种观念看来,低端的人是可以驱逐的,没有什么不妥,这种思想也可以合适地移植到“人—机”关系中。

   人工智能中“人工”(artificial)一词的含义,已经清晰地表明,人工智能是人创造的,因此,创造出来的人工智能是为人服务的。如吴冠军认为robot应该译为“机奴”,事实上人类一开始就把机器人看成为人服务的“机奴”(吴冠军,2017a)。我们害怕机器人超越人类,对人类实施奴役,而提倡对人工智能的智能进行伦理规范以形成机器人的“善智”,吴冠军甚至认为“善智”实则是让机器人更好地成为服服帖帖的“机奴”。换言之,人工智能作为智能即使再发展,也应该是一种低于人类、为人类服务的智能。所以,这仍然是一种政治学意义上的人类中心主义统治下的人工智能发展方案,或是阿甘本意义上的“人类学机器”的体现(吴冠军,2017b)。

   在人工智能的发展中,人们还担心人工智能会取代人类社会的许多职业。人们从许多角度解读这种取代的可能性,预测被取代工作、职业的种类,然而很少有人从政治哲学的视角看待这种可能的取代。

   “取代”有两个政治哲学后果。第一,被取代的工作,据说都是低端的、可以成规模的、无法个性化的工作,如出租汽车司机,被取代工作的这类人群,从此成为“闲人”;而且当代所谓高端的工作、职业,如医生、律师,也可能被人工智能取代。这必定使大量的人口落入被取代的人群,从而加速了政治哲学意义上的“等级—区隔”,这意味着,人类的等级从符号性社会学层面转变成为真实的生物学/人类学层面。第二,取代还意味着种类的变化,这种取代更为可怕,因为它可能是人机协同的混合增强智能取代纯粹生物学的人。加上器官移植、再生医学、基因工程等技术,人之中的一小部分“权—贵”则可能在生物学+人工智能融合的新生命体系中完全不同于现在的人类。所以,如何使全人类具有平等机会享受最新科技带来的利益,才是最新科技,特别是人工智能发展的最好“善治”。

   而且,在有平等机会享受人工智能带来的利益的同时,人类需有勇气考虑,人工智能的非人智能和非人“意识”的研究是否可能呈现或凸显出来。这是一种非人类中心主义视角的思考。当然,其可能的风险评估也需要在研究进行中提早纳入议事议程。

  

   关于人工智能可能带来的社会问题与社会治理

   人工智能可能带来的社会变化与社会问题。人工智能超越人类、可能奴役人类的问题还可能比较久远,目前对人类社会构不成威胁;而且人工智能的发展并非都是不好的,也有利好人类社会的可能性与现实,所以我们需要提前了解和密切关注人工智能研究的理论进展与实践研究进展。目前大多数狭义人工智能的研究都是基于利好人类社会的工作的,比如智能机器人可以用于救灾,如核泄漏;可以用于家庭服务和养老,如语音/面孔识别、人工智能翻译,还有无人机、自动驾驶汽车、工业机器人、家用扫地机器人,等等。大略来说,人工智能可能给社会带来这样一些变化。

   第一,一些重复性强的工业化研究与生产,可能越来越被智能机器取代。其实这个过程早就开始了,比如越来越多的公司,其真正在一线工作的工人越来越少,而且工人也越来越需要知识化。有些行业整体失业发生的概率由于人工智能的介入而加大了。这是第一级效应。这一级效应还可能引发更大的、更深的效应,如“蝴蝶效应”那样波及其他相关行业和社会生活的方方面面。特别是人工智能可能带来工作的本质改变(杰瑞·卡普兰,2016:xviii)。

   第二,用于利好人类社会的人工智能也可能被滥用。如智能识别(语音和图像识别),也可能被用于破解识别码、安全锁和网上支付系统。再比如,智能无人机,可以民用,也可以军用,最近一些人士呼吁禁止发展自主性智能无人机,表明这种滥用并非没有可能。这些人工智能在社会生活方方面面可能滥用的现象,从根本上来说,取决于高端的人工智能研究人员的职业伦理和职业行规。

   第三,人工智能的使用可能带来人类社会等级区隔的加大。如果马斯克等人设想的人机融合的四大技术能实现,那么就可能在资本—权力的人为社会等级之上,再进一步增加生物—机器智能的生物等级区隔,由此造成不同的“新人类”。这些“新人类”的出现虽然就其整体而言似乎还是个神话,但是局部的生物—机器融合其实已经开始,如给大脑植入芯片、给肌肉加装增强技术产物。这种局部的人机融合的“赛博格”的出现,有极强的两面性:一方面它可以补全患有盲视、失聪、肢体缺失以及瘫痪的人的机能;另一方面,当它用于所谓的健康人身上,则极大地增强了人的能力,使人类物种中出现了一种“增强人”——赛博格,如同体育比赛中吃了增强药物的运动员,可以跑得更快,跳得更高,有更为持久耐用的身体。这对没有吃增强药物的运动员的公平性可想而知。表面上带来的新的社会不公平问题,实际上是造成了人类物种的新生物—机器的不平等区隔。

   人工智能发展的社会治理。如上所说的人工智能发展的社会问题只是冰山一角,人工智能的发展势不可挡,因此有必要对人工智能的发展未雨绸缪,及早做出可能的社会治理预案。

   第一,谨慎研究和发展人工智能,建立有区别的人工智能研究与发展行业政策。

   当代人工智能的研究势在必行。各国在权力与资本逐利过程中,不可能不发展人工智能,就科学研究而言,也不可能在研究上过早设置禁区。人工智能不同类型的研究(如狭义人工智能、通用人工智能、类脑人工智能、人机结合等),不同发展阶段的研究(弱人工智能、强人工智能、超级人工智能),不同行业的研究(一般工业、特殊工业、民用和军用),都应该建立相应的人工智能研究政策、行业规则以及相应的伦理规约。我们不仅要关注国际人工智能界的研究进展,同步建立相应的研究与发展政策,而且应该提早研究由研究和发展人工智能带来的各类社会风险问题,特别是人工智能在应用到不同行业、不同领域和不同部门时可能带来的社会风险(物质安全、信息安全和网络安全)。在可以大力发展人工智能的领域,也需要研究相应的可能的社会风险。

   第二,认真研究和注意人工智能发展的环境代价与效应。任何工业制造业都有环境效应,发展人工智能产业可能会有更大的环境效应,这要根据国情综合考虑。如果发展代价太大,就需要对其发展有所限制,特别需要提早考虑可能的环境代价。

   第三,特别需要注意研究人工智能发展的政治哲学后效。前文已经论证了人工智能作为“机奴”可能的政治哲学后效,有两个需要提早进行规约的方面。

   其一,时时刻刻注意人工智能应用的社会平等性。无论是经济方面还是政治方面,都需要给予社会公民平等享用人工智能利好的机会。当然这主要是政府需要注意的事情,通过汇率或利率调节的方式,向不能直接享用人工智能利好的阶层转移支付利好比例。就人工智能的研究者而言,也需要注意,不要让人工智能研究带来“等级—区隔”的扩大与延伸。

   其二,当人工智能发展存在取代某些行业/职业或人群的可能性已经出现时,智库类研究机构和政府就需要做出评估,并且对这些行业/职业涉及人群的可能转型给出合理建议与安置。

   涉及人工智能发展的社会治理是一个极为复杂的巨系统工程这种说法,实际上缺失了人文和社会思考的维度,而且常常容易使人把这种问题理解为可以按照工程和技术的方式加以解决。事实上,这种工程不是技术本身可以解决的,需要人文、社会科学多学科的交叉和合作研究,需要科学、技术、伦理、政治学(包括政治哲学)的多学科视野,我们特别建议,建立相应的全国委员会,除人工智能专家外,还需要包含哲学家(伦理学家、科技哲学家),特别是政治哲学家。

如若在起始阶段,由人类研究的人工智能可以自主地发展出非人类的智能与意识,那人类能够容忍其自主发展吗?如若人类不容忍,那此时不容忍是对的么?如若这时的人工智能已经比人类更为聪明,那人类还要消灭它们吗?人类还能消灭它们吗?比人还聪明的人工智能此时还是人工智能吗?它要奴役、消灭人类还是与人类合作?它把人类看成为伙伴吗?它会建立起一套相应的“社会政策”与“伦理原则”吗?这些问题虽然还很遥远,但可以在将心比心的思考中帮助我们提前理解当代人工智能发展的哲学问题。有人就认为,一个独立的机器世界由于是人类建立和发展起来的,所以必然继承了人类文明,那么由机器掌管整个世界又有什么不好呢?(集智俱乐部,2016: 208)继续在理性与情感、自我与他者的交集中争论人工智能的哲学问题,(点击此处阅读下一页)


爱思想关键词小程序
本文责编:frank
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/111273.html
文章来源:《学术前沿》2018年5月下
收藏