返回上一页 文章阅读 登录

胡泳:技术并不中立,而有特定目的——重新思考数字化之五

更新时间:2021-07-27 14:57:26
作者: 胡泳 (进入专栏)  

  

   技术的方向性与中立性

   在技术问题上,除了常见的技术悲观主义和技术乐观主义,人们往往还会产生两种想法。

   一类人认为技术具有方向性——它会改变它所触及的文化。此处的方向性是指,技术使一种文化能够朝着它本来无法去往的方向发展。

   另一类人认为技术是中立的。他们批驳第一类人提出的说法,相信我们看到的变化是由于文化内部的力量而不是技术造成的。

   有很多例子可以为技术确实改变了文化这一论点作辩护。

   一个经常被引用的例子是印刷机。印刷机在欧洲发明后(特指实用的近代金属活字印刷机),引起了书籍和学问的广泛传播,破除了知识垄断,引发了宗教改革、反宗教改革和早期的现代时代。

   另一个例子是时钟,它最初是由天主教的修士们开发的,目的是为了对他们一天七段的祈祷仪式作精确的计时。但这一技术最终导致工厂工人遵循规律的工作时间,产生了现代资本主义。修士们没有意识到的是,钟表不仅是一种计时的工具,也是一个整合和控制人类行动的手段。

   然而,主张技术中立的观点会认为这种历史叙述是对这类事件的曲解。印刷机和钟表都是在中世纪欧洲之前很久就在中国被发明出来。然而,中国并没有因此产生现代科学或资本主义。那些认为技术保持中性的人指出,潜在的文化信念和社会实践是造成变化的原因,而非技术本身。

   钱存训的《中国纸和印刷文化史》一书有一个结论:印刷术在中国和西方的功能虽然相似,但其影响并不相同。

   在西方,印刷术的使用,激发了欧州各民族的理智思潮,促进了民族语言及文字的发展,以及民族独立国家的建立;而在中国,印刷术的作用正好相反,它不仅有助于中国文字的连续性和普遍性,更成为保存中国文化的一种重要的工具。

   因此,印刷术与科举制度相辅相承,构成中国传统社会相对稳定的两个重要因素,也是维护中国民族文化统一的坚固基础。

   为了使技术改变一种文化,这种文化中的人们必须选择使用它。这种选择可能是糟糕的,也可能是明智的,但选择是关键。

   人类所做的每一个决定都涉及从若干选择中做出不同的权衡。每个可能的选择都会产生好的和坏的结果。作为人类,我们必须权衡每一种选择的利弊,以决定哪一种在我们看来是最好的选择。

   技术看上去为我们增加了新的选择。在印刷术之前,阅读对大多数人来说根本不是一个可行选择。在时钟之前,人们日出而作,日落而息,毋需考虑几点上班、几点下班,以及在固定时间里生产出某种东西。

   然而,随着技术的引入,新的选择就出现了。任何技术都是这样,无论是现在我们使用的汽车、电视、手机,还是尚未发明的未来技术。

   不过,人类经常做出错误的选择。我们吃明知对自己有害的食物。我们浪费时间在社交媒体上与那些明显不听的人争论。我们也经常做出我们知道一定会后悔的错误选择。

   在决定是否使用某项技术时也是如此。虽然我们可以也确实拒绝使用技术,但我们其实不一定会对如何使用以及何时使用技术做出好的选择。

   在这个意义上说,技术是中性的,因为它只是提供了选择机会,而没有强迫任何人去做出选择。不同的人,进而不同的文化,会对技术的用途做出不同的选择。

   然而,也可以认识到,技术绝不像表面上看起来那样中立,因为它是有方向性的,它通过增加选择或者改变过程而指向某种特定的方向。

   比如,相信技术中立的人提出的经典说法经常包括:“枪不杀人,是人杀人”,或者,“一把菜刀可以用来切菜,也可以用来砍人,关键看拿在谁手里”。

   枪支的确可能有许多不同的用途——比如把它用来做镇纸——但我们大多数人都知道这不是人们拥枪的原因。枪支是为特定的目的而开发的,我们一般是按照这一目的来使用它。

   一种技术的可能使用范围并不是无限的。从理想用途的有限范围可以透视发明者的价值观——枪不是镇纸,而是用来杀人的好工具。当用于它的预期目的时,它相当有效。

   我们能相信发明者对其创造的东西没有道德义务的说法吗?当美国人谈论枪支时,可以合理地解释枪支的必要性,以及个人如何拥有持枪的权利,并由此做出自己的选择。

   然而,枪支的设计就是为了杀人,这是毫无疑问的。这项技术不是一个中立的产品,它从来都不是。

   发明者和设计者偏好价值中立

   “枪不杀人,人杀人”,代表着价值中立论的认知,即没有任何道德价值可以归于某种技术,只有在人使用技术时才出现价值问题。

   也就是说,技术本身是价值中立的,而使用它的人是不中立的。如果一项新技术问世,无论是枪支还是智能手机,造成了或好或坏的影响,那是由于好人或坏人造成的,而无关技术本身。

   价值中立论主要围绕以下几个论证来展开:

   首先,价值难以检测。技术要想包含或体现价值,这些价值应该是可识别的,但现实中很少是这样。

   其次,不同的人拥有不同的价值观。工具只是在被一个有价值的生命所拥有时才具备价值,所以完全取决于这个人的价值体系。而这一体系还会随着人或环境发生的变化而变化。

   第三,价值取决于用途。人的行为的成果、结果、后果才有价值,由此,价值体现在最终使用者身上而不是所依赖的工具上。

   一把刀只是一把刀,是一个中立的物品,有人用它来削水果,有人用它从背后捅人,只有在使用时才可以说到道德价值。

   由此可以很清楚地得出结论,最终使用者需要对技术的道德使用负责。是他们的欲望、需求和目标决定了技术的使用方式,从而也就决定了技术的价值。这种论证表明,我们不能责怪枪支射杀了人,哪怕它的确让射杀这事变得更轻易了。

   价值中立论者把技术视作纯粹被动——在没有人类干预的情况下什么也不做。然而,技术自己不做事,并不能说明它的中立性。仅仅因为枪需要人去扣动扳机,它就是中立的吗?

   枪仍然是一种人造物,会通过降低杀人的难度而鼓励这种行为。例如,根据反枪团体的说法,如果家里有枪,人们更容易自杀或对家庭成员实施暴力。涉及枪支的事故也很常见。因此,似乎很难仅凭枪支的被动性来证明枪支的中立性。同样的论点也适用于一般的技术。

   所有技术发展都有共同的特征。首先,技术对象是独一无二的,它们被设计成以一种特殊和有限的方式发挥作用;其次,技术对象与它们的环境交织在一起, 它们以独特的方式与现实相互作用。

   由于技术是为了特定的目的而构建的,因此,在这些目的的方向上,技术通常更容易使用。用户可以根据自己的企图选择和修改技术,但是受制于人造物的物理现实和相关社会系统的惯性。

   不难明白,价值中立论给了发明家和工程师等很大的帮助,似乎免除了他们对自身发明物所引发的不良影响的责任。它也隐含着应保持自由市场和开放创新的政策预设。百花齐放,群雄竞逐,让技术的人类使用者来决定后果。

   问题是,所有的技术都是由社会经济、文化和政治因素决定的。技术哲学家兰登·温纳(Langdon Winner)在《人造物有政治吗?》一文中举过一个有趣的例子。

   纽约的林园式大道,立交桥的离地间隙被有意设计得很低,使公共汽车无法在这些道路上行驶。于是,平常使用公交出行的贫民和黑人就被拦在了外面,而拥有汽车的白人却能够利用这些大道自由地观光和通勤。桥梁建筑看似中立,事实上可以通过技术配置对社会秩序施加影响,正反映出设计者的阶级偏见和种族歧视。

   温纳提醒我们注意,包括人造空间在内的技术物本身“固有”其政治性。

   如果把技术的最终目的视为是为了全人类或部分人类的利益而开发资源,那么,技术就具有非中性的属性。如果技术以某种方式使人们受益,或对一个群体比另一个群体更有利,那么它们就不是中立的。

   事实上,根据这个定义,中立技术的概念本身没有任何意义。

   更何况,技术发明人往往不知道自己的发明会给社会带来怎样的效应。技术的后果就是这样难以预料。

   在最一开始的时候,面对新的技术,哪些人是赢家,哪些人又会成为输家,是一件连上帝都无法知晓的事情。

   总体而言,技术为人类带来的是正面影响,但这并不会改变一个现实:它使社会中的一些人生活变得更好,而对另一些人来说却变得更糟。

   人工智能终结价值中立

   主张“枪是中性的,而人不是”的一派还会遇到一个麻烦。枪支也许不会自己杀人,但它使人们以某种方式被杀的可能性大大增加,这一点已如上论。但现在请考虑一下这件事:自主武器系统的确可以自己杀人。

   说技术没有偏向性,或者说它并不体现某一套价值,显然是误导性的。但为什么这么多人着迷于价值中立论呢?

   原因在于,价值中立性是一种诱人的立场。在人类历史上的大部分时间里,技术都是人的能动性的产物。为了使一项技术得以存在,并对世界产生影响,它必须是由人类构思、创造和利用的。

   在人类和技术之间存在着一种必要的对偶关系。这就意味着,每当要评价某项技术对世界的影响时,总会有一些人分享赞美,而另一些人则群起指责。

   由于我们习惯于赞美和指责我们的同胞,所以很容易把一项技术的好处或坏处,直接归因于人类使用者的可赞或可责的行为/偏好。我们的想法是,在很多情况下,技术本身的好坏并不能怪罪于技术,而是要怪罪于人。

   但是请注意,我上文强调了“在人类历史上的大部分时间里”都是如此。突然,我们发现,有一种显而易见的方式可以令技术不再价值中立:让技术自己拥有能动性。

   设想一下,如果技术发展出自己的偏好和价值,并采取行动在世界中追求它们,会出现什么样的情形?有关人工智能的巨大承诺(同时也是恐惧)是,它将导致某些技术形式产生自己的意志。一旦我们拥有了完全能动的智力代理人,价值中立论可能就丧失了它以往的诱惑力。

   存在两种人工智能哲学。

   一种主张人工智能需要成为一种公正的、完全透明的技术,它的决策能力完全依赖于逻辑,而不反映人类所表现的任何偏见和偏好。第二种预期人工智能可能会表现得像人类,因此难以避免人的身上存在的一些固有偏见。

   不过迄今为止,还不存在任何没有偏见的人工智能。这主要是因为,人工智能会从我们给它的任何东西中学习。这意味着决策的质量取决于训练数据的质量。

   但训练数据很可能是不完整的、不具代表性的,或许继承了之前决策者的偏见,也可能只是反映了世界上普遍存在的偏见。在现实中,偏见就像一种病毒,会传播和复制。人类的偏见被转移到人工智能和机器学习应用中,主要是通过被喂养的用以训练的数据。

   人工智能工具的发明者和设计者,很难再以价值中立为自己开脱:这些工具很容易被应用到道德上有问题的实践中,由于其不可捉摸性,也很容易被滥用,甚至被具有良好意图的从业者滥用。

计算机视觉就是一个明显的例子。(点击此处阅读下一页)


爱思想关键词小程序
本文责编:admin
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/127726.html
收藏