姬德强:深度造假:人工智能时代的视觉政治

选择字号:   本文共阅读 1205 次 更新时间:2021-09-09 15:19

进入专题: 深度造假   后真相   视觉政治   人工智能   平台化  

姬德强  

摘要:基于对深度造假的发展简史和技术特征的梳理,本文反思了新闻专业主义危机框架内的真假二元论,提出了"深度后真相"的概念,认为视觉客观性的瓦解和新闻专业主义的自我救赎是其主要特征。然而,这都无法阻挡和改变深度造假这一技术运动,因此需要回归对传播权力关系的分析,才能看清深度造假给深度后真相社会带来的视觉控制。借助传播政治经济学的理论路径,本文分析了竞选政治和国家安全如何应对和利用深度造假来实施视觉控制,以及深度造假如何加持了更具系统性的平台控制,从而催化了政治分裂和政治冷漠,也进一步挑战了传统新闻体制的专业主义权威。随后,本文转向视觉政治的经济基础,解释了深度造假对互联网平台公司的经济价值,提出在这一技术运动中,真与假的二元对立关系被替换为渠道与内容的供需关系,复杂的政治后果背后隐藏着基于数据中心主义的平台经济的精明算计。最后,文章提出,深度造假将可能催化算法威权主义,从而进一步巩固现有的平台资本主义。

关键词:深度造假; 深度后真相; 视觉政治; 人工智能; 平台化


人工智能时代,虚假信息和假新闻正在面临来自技术和人的双重抵制。一方面,不管技术成熟度如何,事实核查(fact-checking)技术的开发与应用在揭示部分信息虚假的同时也夯实了互联网平台公司的技术优势乃至专业权威,进一步加速了传统新闻专业主义权威的瓦解;另一方面,以数字素养教育为代表的数字赋权运动则努力在一个“平台化”(platformization)的社会中创造一群能动的数字公众,从而摆脱权威依赖。然而,后真相的社会进程并没有因为各类事实核查技术和数字赋权运动的发展而被阻止,反而借助逐渐成熟和大众化的深度学习技术应用以及以社交媒体为代表的泛在的传播设施走向新的阶段。以平台控制为核心的“后真相体制”(regime of posttruth)(Harsin,2015)得以巩固。

值得注意的是,以多边供需机制为特征的互联网平台在自我规制或者说自我强化的过程中,也借助大数据和机器学习等自动化技术孵化新的产品形态,从而在给社会带来新的不确定性的同时,实现了更好地对社会的控制。在这个过程中,技术与人的界限正在各个层面变得模糊起来,而赛博格(Cyborg)正逐渐从想象走向现实(赵睿、喻国明,2017)。正如牛津大学研究员Miles Brundage所说:“人工智能正在开启一场猫与老鼠,也就是攻击者和防卫者的游戏,其中,攻击者看起来更像人类。”(Kishor,2018)它所俘获的已经超越了单纯的文本和图片,而是对认知更具基础性,也更具有迷惑性、煽动力和用户粘性的载体——视频和音频。这就是自2017年以来被称为“深度造假”(deepfake)的技术运动[1],因为借助“深度学习”(deep learning)技术而得此名,也有翻译为“深度伪造”。

深度造假这一现象是政治精英、技术专家和新闻媒体话语中的又一场真假对立,还是预示了一种持续的或者新的权力结构,超越了真假二元论,从而对社会产生更深刻的影响?本文将借助传播政治经济学的分析路径,从梳理“深度造假”的简短历史和技术特征入手,分析竞选政治和国家安全如何应对和利用深度造假来实施视觉控制;深度造假如何被互联网平台所捕获,成为其政治倾向的表达和商业生态系统的重要组成部分,即在深度造假的技术运动中,平台如何利用了占据主导地位的“参与式文化”(Jenkins,2006)范式,让表面上看起来是自由的、多元主义的预设,而实际上是碎片化而单向度的公众,在加剧了平台控制的同时也成为流量经济的增长点。在分析这一权力转移之前,有必要详细梳理一下深度造假的短暂历史及其技术特征,以及它所带来的传播效应和反效应。


一、深度造假简史及其技术特征


一般而言,“深度造假”指的是把图片和声音输入机器学习的算法,从而可以轻易地进行“面部操作”(face manipulation)(Akhtara,Dasguptaa&Banerjee,2019)——把一个人的脸部轮廓和表情放置在其他任何一个人的脸上,同时利用对声音的逼真处理,制造出实为合成却看似极真的视频——用以躲避识别,混淆视听,娱乐用户,以及实现其他虚假宣传的目的。通俗来说,深度造假就是利用深度学习技术进行精确“换脸”。当然,这一技术并不单纯用于“换脸”,还被较少争议地应用在影视、健康和教育等其他行业之中。

“深度造假”(deepfake)这一概念最早源自社交新闻网站Reddit的一个用户,名为deepfakes。该用户于2017年秋在Reddit发布了基于人工智能算法的换脸视频,把娱乐明星的脸换到色情视频上,得到广泛关注和转发。后来,由于当事人的举报,Reddit和Twitter等网络平台禁止了这一行为。随后,该用户将换脸算法在网上公布,成为一种开源代码供免费下载使用,由此深度造假在全球逐渐产生广泛影响。事实上,深度造假确是从色情视频发轫,随后进入政治、媒体和社会领域。

英文语境中,“深度造假”涉及多个词汇,包括deepfake、deepfakes、deep fake、deep fakes等。其中,deepfakes是上述Reddit用户的名称,因其发布“换脸”视频和公开深度造假代码而成为热搜对象。后来,deepfake成为被更广泛使用的概念(Leetaru,2019)。根据Google Trends的统计分析,全球范围内对上述四个英文词的搜索在2017年11月至2019年5月期间发生了比较显著的变化(如图1所示)。作为发明者的deepfakes主导了初期的热度,但在2018年中以后发生明显的衰减,更具有现象学意义的deepfake一词逐渐成为最受关注的概念,并在2019年上半年掀起了另外两个搜索波峰(Leetaru,2019)。

大多数深度造假都依托于一种深度学习技术——生成式对抗网络(GANs)[2]。中国互联网公司陌陌于2019年推出的换脸社交应用ZAO,被认为也是采用了这一算法(子江,2019)。一般而言,深度造假的算法遵循一个简单的技术逻辑,即两个个体的表达方式和面部定位是相似的。寻求最佳匹配从而可以互换两者是人工智能算法的目标。截至目前,深度造假的技术展示大致分为如下四类:换脸(faceswap),算法可以将一个人的脸无缝插入一个目标视频中的另外一个人的身上;唇形同步(lip sync),伪造者可以将一个合成的唇形移植到其他人的脸上,造成一种他/她真在说什么的假象;面部复现(facial reenactment),伪造者可以将一个人的面部表情转移到另外一个视频中,从而可以施加控制,使得对方看起来厌恶、生气或惊讶;动作转移(motion transfer),即将一个人的身体运动转移到另外一个视频中的另外一个人的身体上,比如跳舞(Marconi&Daldrup,2018)。由于有关GANs的研究和其他深度学习技术的公共可获得性,以及以社交网络为代表的互联网平台公司的渐次进入,深度造假的大众创造能力正在迅速蔓延,成为一个新的技术运动,以及造假与打假的矛盾循环。

Britt Paris和Joan Donovan(2019)在全面梳理这一技术运动的报告中提出了一个“深度造假—廉价造假”(The Deepfakes/Cheep Fakes Spectrum)光谱,主要标准是所使用的技术的复杂性。其中,深度造假位于光谱一端,高度依赖数据和计算,较少被大众所接触;而廉价造假位于另一端,借助一些廉价乃至免费下载的软件,消费者不需要特殊的专业知识和技术能力即可通过终端加载的调整速度、摄像头效果、更换背景等实现“换脸”等操作。在这个意义上,廉价造假有两个并存的技术特征:其一是使用传统的更换背景等技术,实现视觉变化和控制;其二是借助开源的深度造假技术,提升造假的质量和效果。后者正在成为新的趋势。除此之外,廉价造假也룯씃呈现出巨大的娱乐效果,从而进一步复杂化了造假的现象及其社会效应。

那么,如何识别深度造假的技术逻辑?Zahid Akhtara等三位学者的科学论文(如图2)提供了一个详细的分类学框架,包括:面部改动和合成的技术、识别面部操作的主客观方法,以及操控下的面部识别(Akhtara,Dasguptaa&Banerjee,2019)。这个框架所展示的是人与机器在合成面部和识别面部合成上的技术特征和博弈。为了理解深度造假的背景和原因,尤其是与人工智能的关系,斯坦福大学研究员Tom Van de Weghe(2019)联合计算机、新闻等行业的专家,成立了“深度造假研究小组”(Deepfake Research Team),以提升公众对这一现象的认知度,培养跨学科合作,以及互相交换识别深度造假的方案,形成打击深度造假的学术共同体。虽然解决问题的方法还尚不成熟,但研究小组还是总结出深度造假发展至今的一些基本趋势,并称之为“六条教训”。

本文将“六条教训”,或者更准确的说,深度造假的发展趋势和潜能,总结和解释如下。第一,应用的大众化和终端化,即由于合成技术的快速发展,即便不具备深度学习的知识,深度造假也正变得愈加容易,从而可以让普通用户借助深度造假应用来创造合成的音视频,并借助社交媒体等平台广为传播。第二,算法的平台化,即依托大量用户数据尤其是社交媒体数据训练算法。正如该小组所揭示的,深度造假的目标既可以是有着丰富网上素材的名人们,也可以是普通人。因为社交媒体上大量的个人图片可以被深度造假者获取,并用来训练他们的算法,服务于查找、勒索和污蔑等目的,如果这一新趋势发生在记者个人和新闻媒体上,后果可能不仅仅是假新闻的问题,受到损失的可能是整个新闻业的公信力。在这个意义上,深度造假与社交媒体有着天然的技术联盟关系,后者为前者提供数据,前者为后者提供内容。这两条结合构成了本文接下来要分析的平台动能部分。如果深度造假曾经是一个技术爱好者的游戏,那么,与社交媒体为代表的互联网平台相结合,深度造假将深刻卷入不断平台化的社会之中,成为加持平台控制的新动能。当然,深度造假本身也有商品化或货币化的潜能。正如第三条所说,从学术圈到商业圈,深度造假技术正在变成一个大买卖,一个盈利的工具。好的方面可以帮助电影公司做好外语译制工作,或者把历史人物挪到当下,实现特定的艺术和教育目的,坏的方面是能够提升监视摄像头的清晰度,威胁个人隐私。后者也是围绕深度造假的伦理和法律论争的热点议题。

接下来的两个方面与技术的自我救赎有关。第四,他们将之称为“猫鼠游戏”。迄今为止,人们并没有开发出检测深度造假的有效工具,而且在人工智能技术的基础上,打假与造假的竞争一直未曾停歇。因为都使用深度学习技术,采用同样的技术打击造假成为斯坦福大学这个研究小组的科研方向之一,也有研究者采用数字标签或数字签名技术,使得造假也无法更改原初图像。第五,区块链技术可能成为解决方案的重要组成部分,特别是得益于它所提供的不可更改的数据记录,以及去中心化分配账户间的交易方式。换句话说,区块链的关键是去中心化和消除“中介”(intermediaries)。

那么,除了技术决定论(techno-determinism)和技术专家治国论(technocracy)的精英视角,斯坦福大学的研究员们在第六条教训中将希望也寄托在公众自身的鉴别能力的提升上,期待在人们对音视频内容失去信任之前,思考如何培养记者乃至全体公众的新素养,以严肃对待如下问题,包括:视频或音频文件中是否有小问题和不一致?你是否相信信源?你能发现佐证的片段吗?记者们如何检查地理定位和其他元数据?值得注意的是,虽然深度造假的危害正在显现,但这一后果并不会均衡发生在每一个人身上。数字鸿沟的存在会同时限制和放大造假的影响。他们提出,深度造假更多出现在那些弱势社群中间——在那里,主流媒体的使用率很低或者没有,而假消息却往往在封闭的社交网络中被分享和散布,或者更多出现在脆弱的国家里——在那里,信任本来就低,人们也易受阴谋论的影响。换句话说,深度造假技术虽然如下文所说,会被各种政治势力所利用,成为欧美国家后真相竞选政治中的新式武器,但在新闻权威和国家能力依然强大的国家,就不会直接挑战主导的舆论秩序,而是借助社交网络散布,成为大多数社会下层民众的替代性消费内容。尽管如此,深度造假给当代社会带来的最大危机依然是人们对任何事情的默认的怀疑态度,这将在腐蚀新闻业的可信性的同时,给社会带来更多的不确定性,乃至可能的灾难性后果。

因此,深度造假不仅是一种技术迷思和技术景观,而且是一个充满变动的权力场域。这一场域受到多种政治、经济和技术力量的干预。自2017年出现并流行以来,关于深度造假的最具代表性的怀疑论点来自被虚假信息和假新闻所动摇的理性主义真相观,尤以新闻专业主义为代表。然而,本文认为,真相的瓦解与重建并不能改变深度造假的技术趋势,需要关注的应是深度造假如何参与型构了新的平台控制,并依托怎样的经济动能完成平台的可持续再生产。


二、深度后真相:理性主义视野中真相的最终瓦解?


有关真相瓦解的悲观论调在深度造假的技术运动中得到延续,并主导了政治和媒体议程。后真相的内涵在渐入平庸之后借助深度造假重获了关注。

随着算法的完善和使用成本的降低,这一以人脸为改造对象的深度造假技术开始进入竞选政治、社会政策和社交媒体等领域,引发了有关后真相及其背后的政治驱动力的进一步讨论。比如,奥巴马批评特朗普愚蠢的合成片段,扎克伯格声称反对数据被盗的讽刺视频,深度造假给2020年美国总统大选带来的潜在政治风险(Hall,2018),以及因真假愈加难辨而给民主造成的威胁,等等。

深度造假之所以被政治和社会领域所关注,恰恰是由于精确换脸对这些领域中真相的认识论的进一步瓦解,以及造成的有关传播失序的道德恐慌。眼见并不为实,深度造假是信息灾难的前兆(Paris&Donovan,2019)。如此悲观论调正在政治家、媒体和社会公众中间散播。始自2016年的后真相和假新闻,如今升级为更具颠覆力的深度造假,进一步挑战着传统的真相观,或者更精确地说,传统上拥有真相定义或制造权的专业权威。本文将这一新阶段称为“深度后真相”(deep post-truth)。

延续理性主义的逻辑,“深度后真相”具有两个方面的特征。

第一,视觉客观性的瓦解。自从摄影术、视频、射线扫描技术出现以来,视觉文本的客观性就在法律、新闻以及其他社会领域被慢慢建立起来,成为真相存在——或者更准确地说,建构真相——的最有力证据。“眼见为实”成为这一认识论权威的最通俗表达;与此同时,视觉文本的制造者和阐释者也顺理成章地成为真相的最权威定义者和阐释者(Paris&Donovan,2019)。在这个意义上,视觉客观性产自一种特定的专业权威体制。然而,深度造假的技术优势和游猎特征,使得这一专业权威体制遭遇前所未有的挑战。借助这一体制生产的视觉文本,深度造假者替换了不同乃至相反的文本内容和意涵,造成了文本的自我颠覆,也就从根本上颠覆了这一客观性或者真相的生产体制。除此之外,借助“云服务+终端”的平台化网络架构,更加廉价和智能的深度造假终端应用进一步扩大了这一体制瓦解的负面效应。借助符号学的基础理论,深度造假看起来改造的是能指,却通过干预意指过程,深刻地改变了所指。通过对能指和所指关系理据性(隋岩,2014)的打破,深度造假打破了符号的社会共识,也就从根本上改变了社会的意义和价值空间。对视觉文本的广泛不信任将严重影响社会的政治进程和传播秩序。

第二,新闻专业主义的自我救赎。这无疑是新闻专业主义权威在后真相时代的瓦解与重建的新阶段。“如果大众感兴趣的是色情视频,那么媒体更愿意讨论政治问题”(Leetaru,2019)。面对视觉化后真相时代的到来,在更具传播力和煽动性的深度造假视频面前,传统媒体的解决方案依然是回到兼具意识形态和操作规范的专业主义。比如,为了应对深度造假的来临,《华盛顿邮报》设立了“媒体求证委员会”(Media Forensics Committee),汇集了视频、摄影、视觉、研究、平台和新闻编辑在内的各种力量,通过内部训练提升甄别深度造假的能力。委员会由该报的伦理与标准以及研究与发展两个小组负责领导。除此之外,《华盛顿邮报》还通过举办训练工作坊、与学术机构合作等方式,来探索如何用技术来抵抗这一问题。那么,如何甄别或检测出深度造假的视频和行为呢?《华盛顿邮报》的“媒体求证委员会”总结了如下几个方面:第一,核查来源。这也是新闻媒体最惯常使用也是最有效的办法,即联系或查找视频来源;如果联系不到视频的发布者,可以通过InVID等工具查看元数据,或者与Storyful等其他内容验证机构合作。该委员会认为,技术本身不会从根本上解决这个问题,人(尤其是新闻媒体的从业者)才是这一过程的关键。第二,找到影像的旧版。深度造假往往基于网上获取的已有视频。一些反向视频查找工具可以帮助找到这些影像的旧版本,比如Tineye或Google Image Search等。第三,也是比较专业的做法,是利用Final Cut等编辑软件,一帧一帧地检查脚本,从而找到那些明显的小问题,比如嘴部的模糊或不自然的光线。对音频来说,可以细致检查其中是否有不自然的语调、非常规的呼吸,听起来像金属的声音,明显的编辑问题等。当然,需要注意的是,被压缩的视频往往也会呈现出一些上面提到的问题,所以,有时也很难单凭上述标准来断定视频是否为深度造假。这是一个目前尚无法完全解决的矛盾(Marconi&Daldrup,2018)。

在拥有深度学习能力的深度造假技术面前,传统媒体依然坚守了基于主客体二元论和新闻业独立性的专业主义立场,认为成就自身专业水准的那些能力依然可以保证真相的可获得性。正如迈克尔·舒德森在面对后真相的现实时所重申的那样,专业主义的独立合法性通过以下方式保证“真相”的生产,即:及时收回、更正错误表述,并通过含蓄或公开的方式致歉;依赖准确、两面证据、跟踪事态发展等专业准则;以及记者的职业特征,比如冷静陈述、搞清楚消息来源、使用权威信息和追踪、展现与直觉相反的证据和线索(舒德森、周岩,2017)。然而,虽然拥有这些制造真相和核查真相的专业技术,但深度造假快速崛起的现实以及传播与核查之间富裕的时间差,使得传统媒体在多大程度上能够有效应对网络化生产和散布的造假视频,乃至继续扮演民主的守门人角色,成为一个难以回答的问题。当下,深度造假可能是假新闻在质量上的变化,也就是采用包括人工智能在内的更加复杂但越来越廉价和可以被用户端所轻易使用的技术,未来也可能在数量上超出以往任何时期(Alibašić&Rose,2019)。

“事实将会进一步失去效力,因为伪造的视频和图像正在变得更加复杂。这让那些最为基础的材料来源也值得怀疑。”(Fillion,2018)如上文所述,如果传统媒体的做法可以被称为一种精英主义专业主义在面对深度造假时的延续,那么,除了应对方式的有效性可能有限之外,一个有关后真相的老问题也在延续,那就是后真相本身的去语境化话语。正如支庭荣、罗敏(2018)在对“后真相”话语的梳理中所指出的,“‘后真相’是西方政治失灵和新闻失范的产物,而当下的西方媒体实践中的事实查验并不能从根本上扭转媒体秩序”。

历史地来看,“换脸”并不是一个新现象,它曾经是好莱坞的技术优势和工业化标签,就其叙事而言,是赛博格时代“一种描绘我们的社会现实与身体现实的虚构,同时也是一种想象资源,预示了成果颇丰的联系”(哈拉维,2018)。然而,人工智能驱动的“换脸”技术的去工业化和大众化,以社交网络为代表的互联网平台公司捕捉这一技术运动的商业主义动机,使得“换脸”本身从想象与物质的浓缩转化为单纯的物质化行为,从而往往超出了真假之辩,而是与表达的具体社会语境以及创造新的流量增长点紧密相连。眼见为实、眼见为虚,均止于认识论。而对深度造假而言,眼见为“要”,目的是通过编辑或合成视听,表达特定的观点,塑造特定的舆论,动员特定的行为,以及贡献于特定的平台经济等。纵观全球,竞选政治、新闻、网络社交上的自我展现等都是被深度造假技术所瞄准的领域,它们所引发的有关隐私、政治宣传和后人文主义的伦理论争也在持续发酵。

简而言之,深度造假正在展现出丰富的视觉政治经济学,影响乃至控制着人们对政治世界和社会政策的认知,也因其多义性使得不同意见群体可以进行多元解释(Bucy&Joo,2019)。在进一步瓦解真相的理性建构观的基础上,深度造假,正在形塑着崛起中的平台社会。在这里,人与人的互联被数据化、商品化和互联网平台的算法选择或者说算法偏见所型构(van Dijck,Poell&de Waal,2018)。真与假的二元对立关系被替换为渠道与内容的供需关系,复杂的政治后果背后隐藏着平台经济的精明算计。


三、视觉控制:深度造假的政治内涵


伴随着眼见不一定为实或者说眼见是否为实不再那么重要的时代的到来,深度造假带来的是怎样的视觉政治?是更多的视觉控制还是更大的视觉赋权?是对既有权力的夯实还是瓦解?它给当下和未来的政治传播生态将带来怎样的改变?

随着深度造假被广泛使用,其侵入政治领域所激发的有关真假与民主的关系的讨论,再次加深了社会对后真相时代的体认。Alphabet旗下智库Jigsaw的研发总监Yasmin Green说道:“如果说,过去几年有什么可供借鉴的教训,那就是虚假视频将越来越多地被用于推进政治议程。”(K线财眼,2018)正如2016年以来,后真相时代的假新闻的出现“恰逢”全球范围内政治诚信的危机和民粹主义政治的兴起(Alibašić&Rose,2019),深度造假自然也是这一“历史巧合”下的产物或者延伸,而视觉传播赋予了深度后真相生命力。

首先,在西方,深度造假干预政党竞选并扩大政治分裂。围绕深度造假的讨论大多与2020年美国总统大选有关。2016年以来,深受假新闻和社交媒体干预的美国竞选政治,在快速发展的传播技术面前表现得异常紧张。电影人Jordan Peele曾使用深度造假技术,借用奥巴马的脸来向公众发出警示,警惕深度造假的危害。但深度造假视频的病毒式传播往往早于对于假视频的识别结果,尽管或早或晚会被证实造假,但在这一时间差内,造假视频借力社交媒体平台的传播效果已经显现,而改变人们已经形成的认知变得异常困难。在这个政治语境中,深度造假并不是简单地加剧了真与假的分离,而是进一步撕裂了政治鸿沟,从而导致更加严重的社会分裂,以及更极化的政治立场和更激化的社会矛盾。因此,深度造假也被认为有可能成为未来虚假信息战的武器,被各方政治力量所使用。简言之,如果作为独立监督力量的传统媒体已经深陷假新闻和党派政治的漩涡,而作为替代性的网络平台也被无法追踪来源的虚假信息所充斥,甚至通过视觉造假在最基础的认知层面传递误导性信息和煽动性言论,那么,西方民主的根基——理性的公众就面临崩塌的危险。

其次,从地缘政治的角度而言,深度造假正在威胁国家安全,核心是对域外信息控制的担心。各国的国防系统已经成为研究深度造假的前沿力量,以提防深度造假的“武器化”(weaponization)。正如美国国防部联合人工智能中心主任Jack Shanahan中将所说:“深度造假是一个国家安全问题,国防部需要在能够对付它的技术上投入巨资。”(斯特劳特,2019)美国2020年的《国防授权法案》(National Defense Authorization Act)中就提出要资助检测深度造假的技术创新,因为深度造假已经威胁到美国的国家安全。法案要求开发检测和利用深度造假的技术,以应对机器主导的媒体和潜在的外国力量利用这一技术作为武器,深度造假美国政客,从而散布虚假信息影响美国大选。与此同时,以民主党参议员詹妮弗·韦克斯顿(Jennifer Wexton)为代表的政治势力也向以脸书为代表的社交媒体施压,希望其有效甄别和控制蓄意造假的视频(Kimery,2019)。由此,深度造假与国家机器的绑定更加清晰。无论是虚假视频还是传输渠道,都成为国家安全的重要目标。由于政治体制和政治文化的不同,深度造假对国家安全的威胁在中国被理解为更多维和更复杂的现象。龙坤、马钺和朱启超(2019)将深度造假对国家安全的挑战归纳为四个维度:政治安全(抹黑政治人物、伪造政治制度和破坏国家间关系)、经济安全(破坏企业形象和干扰金融稳定)、社会安全(社会信任危机、法律举证困难和被恐怖主义利用)和国民安全(生命、财产和心理)。与美国案例所展现出的要应对的清晰的造假目标相比,中国学者的这一国家安全观包含了多元主体,使得深度造假进入一个无所不包的国家权力体系内。至少就国内而言,2020年开始设施的《网络音视频信息服务管理规定》针对人工智能生成内容进行了全面而明确的管控,以确保包含深度造假在内的此类内容安全可控。

再次,视觉控制除了内容造假,更涉及虚假内容的网络化传播。于是,这一项政治议程指向了社交媒体平台。深度造假的影响往往取决于两个要素:第一,虚假视频的制作;第二,虚假视频的散播。社交媒体的渠道霸权和平台中立性主张往往成为深度造假产生强大传播效果和广泛政治影响的技术前提。2019年,一则以扎克伯格为目标的造假视频在Instagram上广泛流传。视频中的“扎克伯格”称:“试想一下:一个人完全控制着数十亿人被盗的数据,掌握着他们所有的秘密、生活和未来。这都要归咎于Spectre漏洞。它让我们明白,谁控制了数据,谁就控制了未来。”这显然不是扎克伯格本人所说,反而是借扎克伯格的嘴嘲讽Facebook的信息泄露丑闻,并批评社交媒体平台拥有搜集和控制用户数据的权力问题。这一事件的起因,是Facebook拒绝删除假新闻,而是坚持呈现包含核查人员在内的事实全貌,以及作为平台或管道的中立性原则。中立是否无涉政治?一方面,从平台的外部性而言,“网络中立性”(net neutrality)原则在美国被提出和被废止的短暂历史已经说明不同的政治立场很难在这一点上达成一致,中立往往成为一种表达立场的政治修辞;另一方面,正如Tarleton Gillespie在其《互联网的守护者》一书中所揭示的,尽管平台公司的领导者往往把自己呈现为中立的中介的角色,但却无法掩盖平台组织和选择内容的事实。他将这一点描绘为平台的“不可调和的矛盾”(irreconcilable contradiction)(Plantin,2019)。在这个意义上,不管是从内容还是传播上,深度造假都可以被纳入一个更加宏观的平台控制体系之内。平台孵化了深度造假的应用,也利用深度造假生产着分裂的网上公众,使后者更依赖平台进行信息发布、意见表达和运动组织。

需要注意的是,平台控制也有着丰富的地缘差异,从而导致了视觉控制的宽度和力度。如果深度造假可以依托源自北美的社交媒体体系(如脸书和推特)达到特定的政治宣传和政治动员的目的,那么在中国,具体问题就不是情绪表达乃至政治攻讦。中国虽然同样具备深度造假的技术条件和平台化水平,但虚假视频一般不会涉及政治领域,而是存在于相对去政治化的社交空间中。这显然是中国特定的政治与媒体关系以及对于互联网的治理方式所决定的,但这并不意味着深度造假视频不会对中国的政治议题和政治环境产生间接影响,相反,它会继续以收割社交媒体流量的方式将传统媒体为代表的权威信源边缘化,从而在客观上导致了政治讨论的去中心化。这一点与Facebook以促进用户之间连接为主的算法倾向是一致的,后果之一便是传统媒体或新闻机构在用户获取新闻上的重要性下降,以及虚假信息的生产和散播。在很大程度上,这也是深度造假之所以能够快速蔓延的技术和用户土壤。

因此,在讨论深度造假所施加的视觉控制时,需要在方法论上明确“语境化”(contextualization)的重要性。这恰恰也是传播政治经济学的核心方法论主张之一。除此之外,平台化时代深度造假的经济逻辑也是促使平台控制得以加强的基础条件,由此,可以进一步超越真假二元论的理性主义困境。


四、平台动能:深度造假的经济价值


后真相体制是一个有关真相的游戏(Jayson Harsin,2015)。游戏的基础有二,一个是高度分裂的社会,另一个是注意力经济,即网络参与的数据化和商品化。二者对互联网平台而言,缺一不可。深度造假的兴起恰恰符合这一政治经济逻辑。

如上文所述,依托应用平台和社交平台的网络化效应,深度造假正在转向“廉价造假”(cheap fake或shallow fake),其潜在的经济价值正在被各个互联网平台所发掘。而对深度造假乃至后真相或假新闻的分析往往因为理性主义思维和精英主义意识,忽略乃至忽视具体的经济过程和对市场的细致分析,导致了对社交媒体时代新闻或信息生产、流通和消费的具体经济过程缺乏分析[3]。在理性法则内,真相是任何讨论的基础。然而,在历史上,这一形而上的道德规范、专业主义意识形态或称“媒体精英建构的乌托邦”却一直与假新闻现象相伴相随(吴飞、龙强,2017)。除了哲学上的本体论追溯、道德上的反思以及对新闻专业主义危机的担忧,我们还能给造假一个怎样的注解才能使真相不至于迷失在乐观的技术赋权和悲观的权威消弭之间,从而失去对于复杂而动态的平台化和网络化的内容生产和消费过程的解释力呢?

传播政治经济学从对历史的分析出发,认为特定的商业模式——以及内嵌的技术权力——对新闻的生产、流通和消费具有重要影响,进而对媒介资本及其背后的商业或金融资本的积累提供支持。正如Martin Hirst在《假新闻的政治经济学》一文中所指出的,“就假新闻分析而言,政治经济学路径可以看作是对大多数自由主义规范下媒介研究的补充和对应”(Hirst,2017)。这既是黄色新闻时代的历史遗产,也是数字新闻时代的现实。对不断平台化的互联网环境及其动力机制而言,这一路径具有重要的现实解释力。

对承载着后真相时代虚假信息及其散布的社交媒体平台而言,致力于吸引注意力,增加用户粘度,成为互联网的入口,从而带来更多、更稳定流量的商业考虑往往优先于事实核验和理性辩论。在平台或者生态系统的中立性修辞表象下,对这些平台企业而言,真与假的辩证其实并不重要,对其公共性的诉求也超出了其组织承载力。与此同时,这一去政治化的实用主义商业动机也内嵌在各种算法逻辑中,从而通过作用于社交媒体时代大众的信息消费和情感表达心理,促成了特定信息的快速流通和大量消费,最终也不可避免地产生了更加广泛的政治与社会后果。这也是以荷兰学者Jose van Dijck为代表的平台社会研究者们所关心的核心问题,即如何让一个私有并且商业化运行的互联网平台系统在创新的规制体系下发挥公共服务的功能,而不是任由商业价值侵蚀公共价值(van Dijck,Poell&de Waal,2018)。在这里,资本借由技术变成一种直接的建构性力量,造就了一个“平台资本主义”(platform capitalism)时代的到来。在这个意义上,各类应用作为平台经济的代表,本身就是资本积累的重要工具。

深度造假共享了平台社会的一系列基本原则,并逐渐演化为平台经济的一种内容商品,成为互联网企业突破增长瓶颈的新选择。按照Jose van Dijck等人的分析,平台设施在社会中的扩张依赖三个基本过程(Plantin,2019),也就是互联网平台企业影响社会运行的三个过程:第一,数据化(datafication),即尽可能多地、系统性地获取用户信息,对深度造假而言,这也是深度学习、机器训练的基础。如果仅仅依托平台企业自身所拥有的视频资料库,则既要解决数量瓶颈,也要面临版权纠纷。社交媒体平台提供了获得数量庞大的用户视频资源的可能。第二,商品化(commodification),即将线上行为转化为可以交易的产品。就深度造假的商品化或者说其存在的经济合理性而言,我们可以借用Martin Hirst对于Christian Fuchs等学者对数字时代“受众商品论”的两层次划分:首先,聚集眼球或注意力。深度造假本身就具有挑战既有认知框架的反常性特征,能够有效促进从点击到转发的网络行为。Martin Hirst认为,假新闻通过作用于人们的心理从而塑造了奇观和轰动(Hirst,2017)。在这方面,社交媒体平台通过以下技术特征扮演了独特的角色,包括:快速而不是准确,基于聚合的多次发送,以及追求点击流量的货币化(广告收入)。这些特征都能够在深度造假这一技术运动中找到。其次,社交平台以服务用户为名,使用用户自制内容而不需要付费。这可以被认为是平台化时代的受众商品论。免费使用用户自制内容可以追溯到传统新闻媒体在面临财务危机时而做出的妥协式选择。正如支庭荣和罗敏(2018)所分析的,从新闻生产过程而言,“用户向新媒体迁移带来的最为直观的结果就是传统新闻机构的利润大幅下降,迫于财务的压力,传统媒体开始径直地从社交媒体上获取话题新闻,其代价是牺牲了新闻准确性和真实性……而迎合读者的偏见正在成为一个新的利基市场,传统媒体的专业和深度正在遭受侵蚀”。而对社交媒体平台而言,免费获取和利用用户自制内容,尤其是依托深度造假客户端而上传的用户视频素材和制作的合成视频,并不涉及平台专业权威性的丧失等问题,因而更没有专业伦理的界限。除此之外,就社交媒体平台而言,其内嵌的“技术法则”(technical code)虽然出自技术专家之手,包含了技术、产品和文化的逻辑,但大多服务于其母公司(多为私营)的商业模式(Feenberg,2013)。而截至目前,社交媒体平台的主要商业或盈利模式,在喧嚣的技术神话和商业概念泡沫的掩盖下,矗立得像传统媒体一样古老。Jakob Rigi和Robert Prey(2015)将之总结为两个方面,即广告空间的租用和虚拟资本所期待的意外之财。通俗来说,就是广告收入和在股票市场的表现。以2019年9月在中国社交媒体市场瞬间崛起的ZAO为例,在瞬间冲入苹果应用商店免费娱乐榜排名前三,免费总榜单、免费应用、免费娱乐榜单中第一的同时,也伴随着母公司股价的飞涨。虽然围绕这一人工智能换脸软件的讨论大多关注其对用户隐私的侵犯,但从其公司运营和实际上隶属于母公司陌陌的关系而言,ZAO作为一款深度造假软件,其出现本身就是在既有社交流量已经饱和的前提下,陌陌母公司的一次战略调整,在公司营收放缓的状况下进军人工智能换脸,从而保持一种流量热度和用户粘度。业界分析认为,ZAO被称为是陌陌在急于开辟的“社交第二战场”,这一战场并不以社交或者说连接为目标,而是更加多样化的内容消费,在所谓的满足用户使用需求的话语掩盖下,实现的是流量维持和增长的目的,而“内容消费和社交是一个互补的东西”(子江,2019)。在这个意义上,陌陌所做的是建立自身的社交媒体系统或应用平台,而任何一款应用都是这个平台的内容之一。再次,平台并不是公共服务机构,而是会根据自身所需选择性使用用户数据,培育特定的内容、用户和服务。比如,深度造假的应用终端便是社交媒体平台刻意选择和培育的结果之一,而不仅仅源于技术突破。就深度造假的主题或内容而言,从色情视频到政治人物再到普通人参与的换脸社交,那些能够给平台带来发展和扩张动力的数据才会被平台所着重关注。在这个意义上,深度造假展现了社交媒体平台的技术倾向性特征,而这种倾向与其所处的经济状况以及对内容和关系产品的布局有着密切的关系。

从方法论的角度而言,正如Martin Hirst以传播政治经济学对后真相和假新闻的分析所展示的,需要冷静的态度,以及历史和批判的视野(Hirst,2017)。对于虚假消息,可以从两个层面进行分析,一个是话语层面,一个是政治经济层面。话语层面的内涵直指谁有权定义真相或者假相以及背后的动机,在很大程度上,这与宣传或政治动员有关,尤以特朗普的总统竞选进程为代表。通过搅乱舆论的浑水,特朗普成功地赢得了定义真相的权力。另一个层面,也是政治经济学所着力拓展的,那就是超越“第四权力”的意识形态及其对现状的维护,而是去挖掘背后的政治进步和工人斗争。就深度造假而言,除了话语层面持续的真假之辩和猫鼠游戏,传播政治经济学对平台化社会中互联网平台的商业内核及其技术逻辑的关注,对人工智能技术被互联网平台捕获的事实的宏观把握,都有助于我们深入理解一个平台化社会中,各种新技术和新应用所展现的商业价值。


五、结语:算法威权主义的波澜兴起


以新闻业为例,“后真相”本身所隐喻的是一个新闻产业的权力重心从生产端到消费端的转移,也是新闻或信息生产过剩的环境中,垄断性的专业新闻机构遭遇基于社交媒体的多元参与者的竞争从而导致新闻或真相的权威被稀释乃至所有权被转移的过程。但是,这并不代表社交媒体平台及其参与者在自己的空间里重建新闻专业主义或追求另类的真相观,反而更多体现为编织和售卖真相——将真相视为内容产品,通过多种市场营销技巧贩卖给手握注意力钞票、胸怀消费主义心理的用户。在这里,平台中立性原则充当了掩盖平台公司技术倾向和商业基因的强有力修辞。

进入人工智能为技术基础的深度后真相时代,深度造假进一步用超越人类识别力或者说媒介素养的技术,模糊了真与假的界限,并将真相开放为可加工的内容,供所有参与者使用。当真相生产的专业制度被打破,参与真相或虚假生产的技术变得如此廉价和易得,社会问题就会以最快速的方式呈现出来。因此,理解人工智能时代的后真相也需要在真假之辨和商业逻辑之外,定位造假发生的具体的社会历史语境,以及参与者的各自目的。比如,美国总统特朗普的极端民粹主义言论就与美国社会近年来的政治极化有着密切关联。于是,在追寻真相的专业难度之前,“宁可信其有,不可信其无”的危机心理,以及针对社会基本问题的底线心理,就成为舆论发酵和假新闻病毒式散布的社会心理根源。在这个意义上,深度造假开启的是普通人参与视觉表达的新阶段,虽然这种表达方式还会结构性地受到平台权力的影响,从而使得极端言论更容易被选择和传播。对于后者,我们可以称为“算法威权主义”(algorithmic authoritarianism)。

在NiemanLab的Rubina Madan Fillion(2019)看来,“威权主义的崛起与深度造假——使用人工智能软件创造出逼真的影像——的繁荣巧合地同时出现”,与核查事实、澄清真相相比,对于偏见的确认似乎更具有影响力。换句话说,对带有偏见的影像的肯定和散布,远比获取事实来得容易。正如MIT的一则调查所展示的,假新闻散布的速率是真新闻的六倍;机器人虽然以相同的速率加速了真假新闻的传播速度,但很显然,人们(而不是机器人)更愿意转载假的那一部分。在这里,人与机器合二为一。因此,对于深度造假的出现,相关学术讨论不应当简单放置在真与假的二元对立关系中,而是要看到其所展现的新的社会心理状况和舆论走势。

《半月谈》的一篇文章诘问道,法治与伦理将如何应对深度造假的蔓延,表达权优先,还是真假为要,运用视觉检测、数字出处和生命日志等多种技术手段确保其真假可辨(半月谈网,2019)?深度造假的技术进化并没有因为打假技术的发展而停止,相反也在它的创造者手中快速地发展着,并且变得更加具有灵活度、可信性和说服力。正如计算机科学家Siwei Lyu所比喻的,生产和识别虚假视频的竞争就像下象棋,孰胜孰负还需要看对方招数(Fillion,2019)。

    进入专题: 深度造假   后真相   视觉政治   人工智能   平台化  

本文责编:hanzhirui
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 新闻学 > 传播学实务
本文链接:https://www.aisixiang.com/data/128460.html
文章来源:本文转自《新闻大学》2020年第7期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统