返回上一页 文章阅读 登录

陈万球:非传统道德增强的双重变导:生物医学中介与智能体引擎

更新时间:2020-03-30 21:51:33
作者: 陈万球  
这些人工智能体会比我们优秀得多,能创造出最好的人类品质:他们将(至少)是无私的,合作的,公正的[3](P84)。

   道德人工智能体充当“上帝机器”,具有道德环境监测、道德组织者、道德提示器和道德顾问四种角色功能[3](P85-88)。

   MAI的第一个功能将是持续监控用户的身心状态及其环境,并作为一个生物反馈机制,从最优道德功能的角度分析生理、心理和环境数据,提出相应建议。例如,一项对睡眠不足的美国士兵的研究显示,在部分睡眠被剥夺期间,这些军官的道德判断能力会受到严重损害。当过度疲劳损害道德推理时,MAI会提醒他。再如有经验的法官的判决与他们的就餐、休息时间之间有一种令人不安的关联。当法官不按时就餐可能会影响到他的道德判断时,MAI会提醒他。

   MAI的第二个功能是协助用户设定和实现特定的道德目标。例如,用户可能希望向慈善机构捐款,或者花时间做义工,或者希望减少碳排放量。MAI会提醒用户充分利用参加慈善组织、旅游活动来实现他的目标。

   MAI的第三个功能是作为一个中立的道德反思的提示。用户面临道德选择或困境时,MAI会通过相关的问题来帮助用户进行道德思考。在被促使更深入地思考自身决定、动机和后果时,用户对自身选择施加了更多的控制。例如,性别可能会对决策产生扭曲的影响,但是MAI可能会帮助用户面临公平/公正的决定,通过让用户在可能的情况下变成“性别盲”来减轻性别偏见。

   MAI的第四个功能是道德顾问。这种功能可以让用户向MAI询问关于他应该采取的行动的道德建议。例如,如果一个用户表示他想要在当年减少他的碳足迹,但却未能做到这一点,那么人工智能可能会建议他增加环境保护的价值。此外,MAI还有一个更具争议性的功能:保护不道德的行为。虽然MAI的作用是帮助用户变得更有道德,但MAI也有可能提供一个与他人潜在的不道德行为有关的保护功能。人工智能作为他人不道德性情和行为的保护者,显然是一个更具争议性的功能[3](P89)。

   MAI的使用实际上是存在风险的,尤其考虑人的道德能力会不会因使用增强技术而下降。“如果MAI的使用广泛而有效,我们对道德能力的看法是否会改变。可能存在这样的风险,因为(我们假设)道德人工智能技术的使用可以帮助用户更有道德,道德能力可能会与技术能力纠缠在一起。即使这项技术非常简单易用——让我们想象一下比我们现在的智能手机更简单——仍然需要对它的功能有一些关注和理解。”[3](P86)MAI是否会真正帮助用户进行道德沉思?很难预测MAI的使用是否会产生真正作用。进而,MAI的使用会不会侵犯人的道德自主性?在心理上,人们似乎不太可能会盲目地听从人工智能的建议,因此,用户仍然是自治的。必须记住的是,人工智能即使有一天比人类的平均智商高,也不会永远是正确的。在作出重要的道德决定的过程中,人类的反思和判断几乎不可能被消除。因此,可以得出结论:MAI的功能并不是要取代人类的决策,相反,它应该作为一种在道德生活上提供更好的帮助——这种援助有能力获取和分析大量的相关信息。鉴于我们的道德心理非常有限,我们应该欢迎任何能够以这种方式帮助我们的技术的发展[3](P92-93)。

  

   三、非传统道德增强的论争

   非传统道德增强引发了科技界与学术界的广泛关注和讨论。一方面,人们对道德增强技术的前景充满了期待,甚至将其看作是提升人类道德水平、使人类社会变得越来越美好的核心技术之一;另一方面,种种关于道德增强技术的担忧和顾虑与日俱增,对此我们必须作出伦理上的反思和回应。

   关于道德增强的争论大致上可以分为激进主义和保守主义两派。激进主义主张人们完全可以进行道德增强,以道格拉斯、赛沃莱思库、佩尔森等为主要代表。保守主义重视对技术后果的评估,对道德增强表示恐惧和不安,警惕人们防止将道德当做可以无限塑造的东西,以埃尼(Eni)、伯林(Berlin)、费舍尔(Fischer)、拉维扎(Raviza)、坦尼森(Tennyson)等为主要代表。两派论争主要围绕安全、自由、公平等问题展开。

   激进主义认为,目前人类面临关乎自身存亡的道德灾难,诸如核战争、大屠杀、恐怖主义以及环境破坏等,他们开出的处方是:通过道德增强来解决人类社会面临的各种不道德的伤害和威胁[11](P1-2)。提高个人的道德品质和对非道德冲动的控制,表面上看似乎牺牲了个人的自由,实质上是增加了人的自由和自主性。因为成为一个道德上的善人,不仅要知道什么是好的,而且也要有强烈的目的去抑制自私、仇恨、偏见等非道德冲动和行为[11](P5)。“道德增强对身份改变也没多大影响,不仅没有限制人的自由,还增进了人的自由,也不会造成‘搭便车或无本获利’的现象。”[2](P239-241)

   保守主义认为道德增强技术为人类的道德社会打开一个不确定性的空间。由于对复杂人脑结构以及道德心理缺乏足够的科学认知,药物在改善人们道德行为的同时,也可能存在成瘾问题和难以觉察的对身体的伤害,违背了生命伦理学的不伤害原则,很难得到伦理辩护。道德增强不仅不能解决世界所面临的危险困境,还可能给人类带来更大的灾难[12](P103)。犹他大学哲学系克里斯(Chris Zarpentine)认为,生物道德增强会对人类复杂的道德心理带来严重的干扰,主张继续使用传统的道德增强方式[8](P148)。费舍尔认为,普遍的强制性道德增强只是一种幻想,在理论上是错误的,在实践中是行不通的。道德增强会干扰人的自由,减少人的道德选择空间;增加未增强者的压力,剥夺了未增强者的自由[13](P118)。尽管生物医学技术可能会改变人类的某些道德情感,但要从根本上提高一个人的道德动机,做出更好的道德行为,获得明显的道德品质提升,道德增强还面临着巨大挑战,甚至是无法逾越的困难:如道德情感难以量化的特点使道德增强变得异常困难,道德心理表现出的个体发育复杂性和神经心理复杂性给道德增强准确的目标干预带来严峻的挑战,道德多元化使我们对道德增强的可能性产生怀疑,将道德抽离其文化背景和社会意义,只寻找引发道德缺失的生物学因素,道德变成如身体那样的东西,被解剖、还原、分析和改造,这种被改造过的道德是否还能保持它的独特性?此外,道德增强可能会损害公平性,扰乱人与人之间和谐的道德生活。道德增强伤害内在善,伴随着痛苦的奋斗造就了品格,而消除这种痛苦则破坏了好的品格[14](P25)。优先得到增强的“道德超人”会产生增强鸿沟,破坏公平和社会秩序[15](P15)。

   上述关于道德增强上的论争,其实质是技术决定论与社会建构论在道德问题上交锋的具体反映。道德增强问题上的激进主义本质上是一种道德技术决定论。技术决定论认为,现代社会正在走向技术统治的未来社会,技术成为一种独立的自主性力量。技术决定论主张把道德问题简化成生物医学问题,把道德人格培养过程简化成生物医药过程,把道德进步问题变成了基因编辑过程,实际上这是一种生物学和医学还原论。激进主义主张通过技术发展道德,以技术手段设计塑造完美的人,其错误在于忽视了道德复杂的社会性本质,把道德还原成为自然性本质,是一种技术决定论的新形态。

   道德增强问题上的保守主义本质上是一种道德社会建构论。社会建构论认为:道德离不开社会关系的制约,本质上是在社会文化实践中建构出来的。道德社会建构论并不否认道德的先天因素,这种理论主张,道德是一个自然过程与社会历史过程的统一,个体的道德是基于自然基础发展起来的社会政治、经济、文化、教育等多因素的整合构建起来的,教育是道德发展最重要的方法,道德教育应当回归生活实践,社会实践使道德教育更富有创新性和生命力。激进主义把道德问题简单地归结于个体道德的问题,将个体道德游离于社会文化和群体道德之外,简单地寻找生物原因而非社会原因,期待用医学上的进步来掩盖社会层面的问题和弊端,其实造成的是一种价值观上的错位,并不利于人类社会的发展。

   道德增强问题上的激进主义与保守主义之争反衬出道德主体的沉思和人类理性的作用。道德增强技术并不是一个假设,而是一个正在进行中的现实进程。目前尚未有明确的规定或法律阻止或者是延缓这一技术进程。不管怎样,随着生物医学技术日新月异的发展,道德技术革命都会在必然的逻辑上发生。面对新技术的挑战,盲目反对和盲目接受都是不正确的。

   人为自然立法,也为自己立法。所以,一种新的开放的道德进化观应当建立,倡导生物医学道德增强和传统道德教育方式并存互补:一方面,必须坚持传统道德教化来推进人类的文明进程,这被实践证明是行之有效的、最主要的人类道德进化方法,必须反对极端的激进主义借道德增强技术抛弃传统教化方式的意图;另一方面,人类不应该故步自封去做道德增强技术的“卢德分子”。生物医学道德增强和传统道德教育方式并存互补的核心仍在于是否接受技术对道德进化的干预的可行性。马克思认为:“只有当对象对人来说成为人的对象或者说成为对象性的人的时候,人才不致在自己的对象中丧失自身。”[16](P190)在技术性道德增强中不至于丧失自身的关键在于把生物医学技术发展成“为人所为”的对象,因而人才能成为发展对象的人。面对第四次科技革命的到来,我们应以开放的态度对待道德增强技术,反对极端的保守主义借维护道德的社会性反对道德增强技术,就像保守主义者所说的那样:“道德提升没有捷径可走。除了荆棘的道德进步之路之外,确实没有别的选择。”[8](P151)质言之,道德教化和道德增强相互契合、相互作用共同推进人类道德的进步,应成为我们这个时代的“高卢雄鸡”。

  

   四、非传统道德增强双重变导的伦理建构

   一个完整的行为过程是由行为动机、行为本身、行为后果三者构成。传统伦理学主要集中在行为本身及对行为明显后果的辨析。随着生物医学、大数据与人工智能的爆发性增长,这些技术行为的后果变得不可预测或难以预测,传统伦理学已难以适应,需要一种全新的针对可能产生重大技术恶果的伦理原则及其方案。从现代伦理学的发展趋势来看,愈专业化和精准化愈更具有生命力,具有广泛普适性的伦理全能公式已逐步式微。比如,谷歌公司CEO桑德?皮查(Sand Pich)发表署名文章《谷歌AI的原则》,详述了人工智能运用的七大原则,即造福社会、避免偏见、确保安全、对人负责、保护隐私、遵守严格的科学标准、避免有潜在危害或可能被滥用的技术与应用。这样的道德命令在实际运用中仅仅是现代形而上学。

   从道德进化过程来看,非传统道德增强的双重变导是生物医学的突破性进展和人工智能综合技术飞跃的结果。从道德进化本质来看,道德增强技术突破了传统道德进化后的抑制感,实现了道德演化从以“纯粹感性”为重点到以“纯粹理性(道法自然)”为重点,再到以“实践理性(技术干预)”为重点的框架重大转换。从技术介入的公共性来看,形成了身体与道德、道德与技术、人与世界的新型关系,决定了道德进化的新特点与新走向。因此,构建非传统道德增强的双重变导的伦理学是比道德增强本身更为重要的课题。

第一,确立物种整体安全为第一优先原则。由于道德增强技术涉及自由、平等、公正、包容、透明、责任、可靠与安全、隐私与保密等众多伦理变量,这其中最为首要的是安全中的人类的物种整体安全,特别是药物和基因编辑中基因变异带来的物种大面积异化的失控,最终引发人性(自然属性和社会属性)的根本性裂变。就安全本身来说,如果仅仅把绝对安全和全面安全作为第一原则,人类就不会有科学探索。在马克思历史辩证法看来,任何进步都是以退步为代价的。恩格斯在《自然辩证法》中指出:“有机物发展中的每一进步同时又是退步,(点击此处阅读下一页)


爱思想关键词小程序
本文责编:陈冬冬
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/120658.html
文章来源: 《武汉大学学报(哲学社会科学版)》 2019年04期
收藏