返回上一页 文章阅读 登录

黄各:人工智能道德增强:能动资质、规范立场与应用前景

更新时间:2022-06-27 16:15:03
作者: 黄各  
而关乎一个客观的善的目的,这个善的目的赋予每一个行动者以同等的权威性,体现出不偏不倚性的要求:“在这个意义上,第三人称的规范理由独立于行动者,是一种外在的立法权威。”所以,这种立场总是在个体与个体之间寻求一种博弈的结果,它的规范性理由并不能基于某一个行动者的理由而提出,而是要在综合考虑不同欲求的条件下提出。

   而介乎于这两者之间的是第二人称立场。其提出者达沃尔(Stephen Darwall)认为,这一立场能够有效地解决行动主体间的普遍权威问题:“一个第二人称的理由,它的有效性依赖于预设的权威和人们之间的责任关系,因此也依赖于理由在人与人间传达的可能性。”它可以用“我—你”的视角向自己提出要求,并用一种相互负责的观点进行审视。其规范性和权威性的来源“不是一个人希望或更愿意所有人做什么,而是一个人期望别人做什么,以及我们会同意任何人能够向作为相互负责的平等共同体成员提出的要求,亦即我们对彼此负有的责任”。这种立场提供了一种“相互承认”的契约论道德模型,使得道德原则不只是约束行动者应该或者必须执行哪些行为,而是通过彼此之间共担的责任与要求,让道德主体更为明确其行为规范,从而避免第一人称立场和第三人称立场的局限。那么,在AI增强的视域中,人工智能机器和道德行动者之间应采用哪种规范性人称立场才更为合理呢?

   (一)伦理决策机器的规范性疑难

   依据学界现有的研究成果,AI增强最常见的方法是应用伦理决策机器这种“直接道德增强”(direct moral enhancement)的方案,这种方案试图创造出具有自主判断意识的AI系统来对人类的道德行动直接进行指导,它“基于系统的设计者认为有效的道德概念,并以此概念将系统配置成能够指导人类的信念、动机和行动的事物”。它在完成初始的程序设定以后,包括所有设计人员在内的人类参与者都将成为“配角”。除了决定系统如何作出道德判断以外,人们无须在思考和行动上花费额外的时间和精力,只需简单地设定一定的程序,按照被告知的指示来行动即可。这一方法是将道德判断和决策的主导权完全交给了伦理决策机器,这亦是一种将道德规范性完全建立在人工智能机器上的“第一人称立场”。

   因此,这一方案首先遭遇的疑难也就是第一人称立场所固有的。如前所述,这一立场依托一个完全理性的行动者,需要靠其理性慎思来进行道德判断与实践。这种慎思类似于康德无条件观念的推论,是一种理性的自我立法。然而,这种方式对于一般有限的理性存在者而言,要么是一种没有实质内容的空洞幻想,要么会错误地寻找到某个外在于反思的事物作为道德判断的起点。正如很多反对自我立法的研究者所言:“如果行动者对自身施加了一个原则(准则),那么很有可能他必须有理由去那样做;但是,如果存在一个在先的理由去采纳这些原则,那么,这一理由将不是自我给予或者施加的。”由此一来,AI系统很容易从程序本身所确立的价值标准出发来进行道德判断,并有可能陷入“自负”的情境中。

   并且,在前文的讨论中已经明确了AI系统并不具备完全自律的道德行动条件,由此以第一人称立场为行动主体的系统设定就非常有难度。我们不仅不可能要求设计出来的AI系统兼具平等与自由、敬重感、自我同一性等这些很多人类都无法企及的特质,而且这种完全将决策权交给AI系统的举动,也会让人类的这些特质遭受侵蚀,从而无法达到增强的效果。此外,伦理决策机器要想获得第一人称立场的规范性,还需要将自己视为目的而不是手段,这种方法若得到全面应用,会给人类社会带来一系列的风险和挑战。康德人性目的论的最终归宿是要求行动者具有目的意识,并走向目的王国。如若将此意图赋予伦理决策机器,把决策权全权交给它来执行,这难免会为人类社会带来不可预知的风险与挑战。

   (二)人工道德建议者的规范性问题

   很多研究者转而提出一种“人工道德建议者”(artificial moral advisors,以下简称AMA)的方案。这项方案已经在一些场合得到了应用,如安德森等人设计的医用伦理专家(MedEthEx)、麦克拉伦设计的真话机(Truth-Teller)等。其核心是让AMA充当理想观察者的角色,从而在人们面对各种道德和利益冲突时给出合理的建议。因此,它“不仅仅是为人类在具体情境中提供超出人类认知范围的道德相关信息,进而帮助人类做出更恰当的道德行为。它的终极目的甚至可以是帮助人类接近某种‘理想观察者’的境界,即一个近乎全知的存在,从而做出一个建立在信息零缺失、(基于某类原则)‘道德零失范’基础上的道德判断”。

   因而,AMA的道德规范性更多依靠的是第三人称立场,它需要智能系统从一个客观中立的角度为人类道德决策赋予标准,让其能够处理信息。从积极方面来看,如果这种系统掌握的信息足够全面,则能够从“上帝”视角来对人类进行指导,从而满足斯密“神圣诫命”的设想。并且,它还能将道德原则的选取权交给人类使用者,我们可以根据AMA提供的“原则菜单”,依据自己的倾向来选取相应的行动,从而获得道德行动的自主权,并在这种过程中使自身的道德能力得以强化。

   但是,这种方案依然会存在由第三人称立场所引发的规范性问题。因为该立场所给出的行动理由大多是认知而非实践意义上的:“作为给出理由的形式,它所表达的只是要求中立的行动者同意有一个做某事的理由,而并非在实践中同意实际地按此采取行动。可能做出的任何声明都只是针对中立的行动者关于实践理由的信念,而没有直接作用于行动者的实践理性或意志。”因此,AMA在执行程序时也容易受到此立场的影响,从而只是在情形比较和分析中有很大的优势,但在指导实践方面则有所欠缺。而且,虽然我们可以从AMA所建议的各种价值序列中选取行动原则,这样一来看似获得了自主性,但当我们按照AMA的指示进行行动时,行动动机与责任认定却存在很大的疑问。

   三、关系性视角:人工智能道德增强的前景展望

   上述两种AI增强方案除了在规范性立场上存疑以外,还会在应用过程中遭遇一定的阻碍。有研究者就认为,这两种方案可能还无法达至使人类道德增强的效果。比如,在这两种方案中,个人的角色是比较被动的,伦理决策机器不用多说,AMA也只是让个人选定自己希望采纳的价值序列。在这之后,人们唯一能做的只是决定是否接受道德机器测算后的结论。由于行动者不需要了解这些价值观和其系统决策之间的关联,一旦AI系统确定了标准,系统只会建议行动者做出符合这些标准的决定,而不是鼓励他们去质疑这些标准。个人或许可以随时对系统所提供的价值进行不同的排序,但他们不会更加深入思考,因此他们的道德增强程度是有限的。并且,这两种方案都容易陷入绝对主义的困境之中,并受到系统制定者的操控,最终让人类不仅没有在道德水准方面得到提升,反而会处于更深层次的风险之中。

   那么,有没有一种方案既能够保证道德增强的效果,又可以在规范性问题上避免争议和指责呢?前文已经论证了AI系统具备一定的能动资质,甚至可以在一定条件下采取与人类相似的认知和实践模式。只不过,其行动是由数据搜集、程序制定和内生性的推理模式所构成的。这些行动能力同样需要处理庞杂的价值观念和相互关系,不同的行动任务也需要其从不同的环境和境况中提取特定的变量。因此,要想使AI系统真正帮助到人类,必须要让其走进人类世界,试着去理解人类的价值关切。“当人工智能进入人类的社群,它首先要观察社群的规范、理解社群的诉求、把握社群的内部和外部关系,这些是人工智能进行道德判断必不可少的训练。一个理想规范手册无法穷尽情况的复杂性,如同人类一样,人工智能的道德训练只能在大量的具体案例中,尤其是在互动中才能逐渐塑造出‘道德品格’。”

   与此同时,人们也需要在与AI系统的交互过程中去思考和反思,理解这样做(或不做)的理由是什么。因此,一种真正能够提升人类道德水准的AI系统应该是与人类处于一种第二人称的“关系型”视角当中。在“我—你”的交互过程中,增加他们对话的可能,以此来促使人类思考“合理行动的规范理由到底是什么”?而不是简单地对人类施加指令,或者预存一些制定好的价值菜单和序列,让人们只是去选择而不是深入体会。正如同第二人称立场所预设的那样,它的实践理由是相关于行动者而不是中立于行动者的。它的规范性来源于预设的权威个人间的相互可说明性,亦来源于行动者的相互关系。因此,它需要具备一定的能动资质,像人类的合作者那样,与这个群体逐渐融合,通过一次次的互动来积累和调整自己的数据库,学习和估测服务对象的价值函数,从而不断改进和提高。这种增强的方案类似于《理想国》中的“助产术”,笔者在劳拉(Francisco Lara)等人所创立的“苏格拉底助手式模型”的基础上,更进一步将其解读为“关系—辅助型”增强。

   与之前的方案相比,这种增强模式有如下三方面的优势。其一,它的规范性立场可以建立在第二人称基础上,根据行动者之间的“我—你”关系结构来确定行为动机和规范。它在明确AI能动性资质的前提下将其纳入与人类的关系结构中,根据彼此的行为和意志提出要求,达到承认和尊重,从而获取二者之间普遍的权威性。其二,它使行动者获得了更高的参与程度。在前述的方案中,人类主要依靠机器决策,即使它们只是为人类提供了价值序列,人类的参与度仍然是极低的。与之相比,这种方案将重点放在了增强的过程而不是结果中。它的目的是帮助行动者进行伦理思维的提升和学习伦理思考模式和路径,而不是仅仅重视行为的后果。其三,这一方案还能对AI系统的责任进行明确规定。在此方案中,AI系统同人类一样,需要对自己的行为和选择负责,只不过人类作为行动者负主要责任,AI系统作为参与者和辅助者负次要责任。

   在此基础上,还值得思考一个问题:AI系统应该从哪几个主要方面来指导行动者进行更为合理的道德行动?我们希望能够找到行动者在进行道德选择和判断的过程中,对其产生重要影响的潜在因素,并在制定人工智能程序时着重考虑如何将这些因素更多地纳入他们的“对话”之中,以此来使行动者的判断和实践更为合理,也利于改善自身的道德品质。在笔者看来,如下几个要素是值得考量的。

   首先是提升个体的逻辑能力。我们可以在人类与AI的交流过程中,让智能系统显示出每一个判断推理背后所蕴含的逻辑规则。通过这种数据化的分析形式,行动者可以明晰其论证中的逻辑缺陷,了解到底是什么导致他们在推理中出现了无效的目的,以及明确意识到他们的推理因何而正确有效。对于智能系统而言,也需要根据一定的逻辑准则来告知行动者其判断、推理与实践是否保持了一致,有没有各种观点被整合在一起后出现不连贯的情况。

   其次是提升定义的准确性。在道德领域中,只要涉及判断和决策,我们就必须对一些抽象的概念、理论和原则进行思考。因此,更为清晰的定义对于道德推理者而言非常重要。“在这些观念是道德观念的情况下,与之相关的理解力将会部分是抽象的——更清晰的概念理解将会对道德推理者有价值。这包括对道德观念的内容、强度和范围的清晰把握,以及有效传达对其理解的能力。”如果行动者模糊和歪曲了相关定义,将会导致不可靠的推论,从而引发与行动者审慎判断不一致的行为。因此,AI系统应该设置出一定的警告程序,来严格要求使用者对原则、观念等准确定义。

再次是赋予其更多的常识。常识在道德判断中非常重要,它“涉及行动者所在的世界的各种事物以及一些经常性行为的结果,这些都是智力水平在平均线之上的人们应该知道的”。AI系统应广泛搜集和整理各种常识观点中涉及的特殊事实。尽管这类知识与道德判断不直接相关,但掌握更多的常识可以提高行动者有效评估这些前提的能力,从而提升依赖于这些前提所做出的道德结论的可靠性:“尽管道德判断不能仅通过事实和经验来充分论证,但当基于经验驳斥的前提时,(点击此处阅读下一页)


爱思想关键词小程序
本文责编:admin
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/134943.html
收藏