任剑涛:人工智能与社会控制

选择字号:   本文共阅读 3652 次 更新时间:2020-02-13 18:01

进入专题: 人工智能   社会控制   社会失常  

任剑涛 (进入专栏)  


摘要:人工智能,已经广泛运用于技术领域的人力替代工作,同时开始运用于社会控制。社会是一个复杂系统,社会成员对社会体制存在顺从或反抗的选择。因此,社会是需要控制的。人工智能为有效的社会控制提供了强有力的技术手段。人工智能对日常社会信息的收集、甄别、筛选与使用,为常态下的社会控制提供了人类智能所不及的便利,保障了社会控制的高效率。但人工智能并不能保证社会控制无条件奏效。基于常态的社会控制,人工智能可以发挥重要作用。但在社会控制失效、社会动荡和社会暴乱等社会失常的情况下,人工智能也对社会控制无能为力。对持续有效的社会控制而言,保证社会常态,杜绝社会失常,建构良序社会,是人类智能与人工智能交互作用,发挥社会控制效用的首要前提。

关键词:人工智能 社会控制 社会失常


人类对人工智能(AI)的强烈期待,一方面是将人类从繁重的体力劳动中解放出来,另一方面是解决人类智能的不及而对人的发展发挥助力作用。但这些期待落实于社会进程中的时候,总是与社会控制(social controls)紧密联系在一起的。因为迅速发展的先进技术,一旦与既定社会秩序不相吻合,必然会造成两种不合预期的后果:要么社会利用相关技术,维护社会秩序,让技术成为社会重构的工具;要么运用技术失当,技术颠覆社会秩序,而让社会陷入紊乱状态。如何使人工智能这样的技术与社会发展、适当的社会控制吻合起来,便成为人们思考迅猛演进的人工智能与社会发展关系的一个重要切口。当下的社会控制,愈来愈依赖人工智能。但社会控制不能单纯仰赖人工智能。社会控制的有效性依赖于社会成员与社会机制的积极互动,也就是人类智能与人工智能的恰切互动。一旦社会控制超出社会的承受程度,再怎么先进的人工智能也无法对一个失常社会加以管控。唯有成功建构一个良序社会,才能保证人工智能在社会控制中发挥人类预期的作用。


一、社会控制及其智能化

社会的构成是复杂的,因此,为了保证社会的基本秩序,社会需要进行控制。人们习惯于在从简单到复杂的演进线索上看待社会的构成状态,这样的看法并不是针对社会构成复杂性的古今一致性而言的,而是针对复杂性程度高低而言的。相对于单个人、原初组织形态家庭,社会的构成本身一直就是复杂的。尤其是政治社会或国家出现以后,社会构成的复杂程度陡然升高。可以说,社会构成就其存在形态来讲,历来就是复杂的;但社会构成在认知上的复杂性程度,则具有很大差异。尤其是在古今维度上看,更是如此。在古代社会中,人们对社会作为复杂存在的感知与认识,明显是有限的。这与古代社会存在大量尚待展开的社会因素有关,也与人们认知社会的理论积累薄弱相联系。随着社会要素自身内涵的渐次展开,以及人类自我认知的理论积累的逐渐厚实,社会复杂性的认知也就达到一个相应的高度。

社会的复杂性,以及建立在复杂性基础上的社会稳定性,从三个方面直接表现出来:一是需要建构良好的社会价值基础。价值偏好是人各相异的,群体之间的价值立场也有很大差异。因此,当社会需要建构良好价值基础的时候,如何协调个人、群体与社会之间的价值关系,就成为一项困扰人类的恒久事务。二是需要建构有序运作的社会制度体系。这一体系包含政治、经济、法律、文化、教育、技术等等内容,这些社会要素相互间的制度安排及其适配性如何,决定了社会是否能够顺畅运转。三是需要建构社会日常生活世界的秩序。人的日常生活,一般不外油盐酱醋、衣食住行。但试图满足社会成员对此的日常需要,则不是一件容易的事情。它既需要成员之间的自发协调,也需要日常社会建制意义上的良风美俗,这是一个社会在日常生活世界长期磨合才能生长出来的底层秩序。如果一个社会确立了适宜的价值基础、建构了有效维护秩序的种种社会制度、确立了日常生活世界的良好秩序,那么,这个社会就是一个实现了善治的社会。反之,就是一个让人处在惊恐不安、无以安心生活,更不可能追求卓越的失序和无序状态之中的社会。面对这两种判然有别的社会状态,人们当然需要去精心设想、努力建构和全力维护一种有利于社会善治的秩序机制。这就使一种值得期待的社会控制机制成为必须。失去有效的社会控制,社会就会滑入失序或无序状态,这不能不让人警醒。

可见,社会控制是与社会的结构特征内在联系在一起的。由于社会成员之间在生存与发展上实际存在着巨大差异,为了获得各自所需要的资源而展开的争夺势不可免。建构必要的社会、政治、法律秩序,有助于将这类争夺引导到一个有序而为的状态。否则,全无秩序的资源争夺,必然对一个社会建制的存续发生颠覆性作用。就此而言,社会控制就是一个建构与维护秩序、破坏与颠覆秩序的边际界限的驾驭问题。“社会系统不能认为是完善整合的和自动自我调节的。在任何社会系统中,都将会有相互冲突的社会力量的操作,并呈现辩证的发展。不同的行动者和阶级以不同程度和不同性质的方式关联于不协调的发展。这些由于制度设置的发展和操作影响产生的敌对行动者可能社会地表达他们的不利条件和被剥夺性,例如利用福利或平等(或其他的思想根据)的规范和价值观念。他们也可能被组织(或能够主动地组织,特别在民主社会)和动员起来 采取社会行动改变制度设置或者至少其中(从他们的观点看)不合理的性质。这些活动常常把他们引进同那些利益和职责关联于系统再生产的人们的冲突之中。即冲突的发生涉及制度的维持(再生产)与制度的重建和可能的改革要求的对抗。因此这样的冲突能够干扰或阻止再生产过程,肇始社会改革的阶段。"这是基于社会是一个宏大系统,因此必须对构成这一宏大系统的各个子系统加以调节和适当控制,否则社会这个宏大系统就难以顺畅运转,就有陷入混乱状态的危险。

社会控制的直接目的是为了维护既定的社会系统。但既定的社会系统,肯定会将社会成员区隔为这一系统的明显受益者,相对收益者、明显受损者与相对受损者两大部分,这两部分人群在认同既定社会系统或社会秩序的自我感觉与行为决断上具有显著差异:前者是维护既定社会系统的力量,尤其是明显受益者构成现存社会系统的坚定维护者;后者是不满既定社会系统的集群,尤其是明显受损者构成了现存社会系统的坚定破坏与颠覆者。基于此,社会学给出一种基于防范破坏既定社会规则人群的狭义社会控制理念。破坏既定社会规则,也就是破坏既定的社会控制秩序。按照程度来分,轻者成为人们眼中的越轨者,重者便成为触犯法律的犯罪分子。显然,为了维护社会秩序、社会规则,必须对这两类人进行有效的社会控制。针对越轨和犯罪的狭义社会控制,具有两种基本形式:一是内在社会控制(internal social controls),二是外在社会控制(external social controls)。就前者言,它寄望于个人对群体或社会规范的认同。一旦社会规范内化成功,一个人就会在有人或无人监视的情况下自觉自愿并且持续不断地守规。这对社会控制来讲,自然是最值得期待的结果。内在社会控制主要依赖于价值观念的塑造和内化。它对社会大多数人来讲,是观念与行动受控的主要途径;对越轨的防止和犯罪的改造来讲,也是最为深沉的内化动力。就后者论,主要依赖于社会制裁手段。这些制裁可以分为非正式的社会控制机制与正式的社会控制机制两类。前一方面主要呈现为个人所在群体的不赞成到群体的拒绝,以及身体惩罚;后一方面则主要呈现为专司社会控制之责的组织与职位的控制方式。如警官、法官、监狱看守、律师,以及立法官、社会工作者、教师、神职人员、 精神病医师和医生,就是实施这类控制权的人格载体。这主要是针对越轨者、犯法人士与犯罪分子设计的社会控制机制。这类社会控制的目的,“旨在防止越轨并鼓励遵从”。

在既定的整体社会系统中,国家权力体系是维护这一系统、旨在捍卫现存社会秩序的核心力量。在社会控制系统中,国家权力总是想方设法让社会 中维护既定系统的力量受到鼓励,而全力使社会中破坏与颠覆既定系统的力量受到强力抑制。同时,国家权力也致力激活社会中那些乐意或愿意维护既 定系统的各种能量,让社会成员和社会组织一起来同心合力延续既定社会系统。因此,国家会倾力设计行之有效的广义的社会控制系统,同时也会耗费 不菲资源设计并实施狭义的社会控制体系,以期在社会宏观结构与实际运行建制上构造出有利维护社会秩序的社会控制机制。

在国家控制社会、社会自我的进程中,逐渐形成了社会控制的实际体系。在构成形态上,社会控制体系长期呈现为主要依赖人类智能,引入控制技术手段的受限形式。这是技术革命爆发以前的基本状态。但对技术手段的设计与借重,一直是社会控制系统的显著特点。相关的技术手段呈现出从粗糙、稀少到精细、繁多的发展趋势。在古代社会,社会控制基本上依赖人类智能的完成,这是受政治社会或国家建构能够得到的技术支持手段与技术发展水平决定的情形。当其时,政治社会的运行受宗教、政治、军事、法律等手段的支持,即可有效运行。但社会控制中对技术的低度引入是必须的。因为即便是古代社会的控制体系,也不可能完全依靠人力来完成,利用足以延伸人力强度与技巧的技术方式,就成为有效控制社会的必然。譬如通讯上驿站的设置、军事上烽火的引入、社会上密谍的设立等等。随着技术在现代社会的迅猛发展,技术被广泛引入社会活动领域,社会控制的技术水平明显提高。在机械技术时代,社会控制领域大量借助机械制造物以改善人力不及的、处理繁重管理事务的技艺。在自动化技术时代,社会控制领域更是普遍借助各种自动化技术手段处置社会控制事宜。如今人类迈进人工智能技术突 飞猛进发展的时代,社会控制借助种种人工智能技术,进入一个人类智能似乎有所不及的新阶段。

社会控制的智能化,是社会控制与技术系统紧密结合的必然结果。所谓社会控制智能化,一方面是指社会控制设计与运作过程中对人工智能的引入。譬如交通控制智能化水平的大为提高,大大缓解了人类智能直接设计交通控制系统时交通繁忙情况与控制能力低下的矛盾。在电脑模拟设计交通控制系统的条件下,交通疏导的效果得到显著改善。而人脸识别的启用,将长期得不到侦破的刑事案件一举破获,人所周知的北大学生弑母案主角、作案后消失三年之久的吴谢宇,就是机场人脸识别系统捕捉到他的行踪的。数起杀人抢劫嫌疑犯、作案后逃亡达20年之久的劳荣枝则是经由大数据分析现形的。另一方面,社会控制智能化则是指人工智能系统直接作为社会控制系统发挥作用,一般不再需要借助人类智能与人类体能发挥直接控制作用、维持社会秩序。譬如当今中国较具规模的城市社会中,日益发挥重要的社会控制效用的天眼系统。“‘天眼’数字远程监控系统通过企业内部互联网(intranet)和国际互联网(internet)实现远程视频监控,主要适合于连锁店、幼儿园、家居、工厂、公安消防、银行、军事设施、高速公路、商场、酒店、旅游景点、小区、医院、监狱、码头港口等地。”连通几乎所有公私场所的“天眼”,就其直接的数据收集而言, 勿需人力资源,就可以对这些场所的社会秩序发挥保障功能。可见,人工智能系统在社会控制的各个 领域已经开始发挥广泛而直接的作用。


二、社会控制前提与智能化致效

社会控制尽管已经发展到智能化的阶段,但社会控制如何真正奏效,还是一个需要深入探析的问题。一方面,需要理性确认的一点是,社会控制并不是封闭自足的事务,它依赖于种种先设条件。这些条件包括:社会的建构是否公正,社会资源的占有与分配是否公平,社会活动主体之间的关系是否相对融洽,社会变革的渠道是否畅通,社会控制的目的是否是为了保护成员权利等等。另一方面,社会控制总是在社会既定系统足以自我维持的情况下,才有希望实现维护既定社会体系的目标。社会控制的效用需要扼住两个端点——一是社会的僵死局面,一是社会的结构崩溃——进而在两端之间展开社会愿意接受的控制过程,并在这一基点上使用可加利用的各种价值引导、制度安排和技术手段。再一方面,社会控制不是国家权力单方面的强加,而是构成广义上的国家各个方面的力量,如国家权力方面、市场组织方面与社会公众方面共同展开的控制互动。构成一个社会的诸要素之间,必须就此处在一个相对均衡的态势中,任何一方都不能占据绝对控制优势,以至于对其他各个方面实施一种控制威慑,并据此独占社会受到有效控制情况下的一切好处——如政治稳定情况下的权力、市场顺畅运转情形下的获利、 社会井然有序情况下的礼赞等等。

仅从控制的直接视角看,社会控制得以实施的前提是“社会”接受控制。这不是同义反复的说辞。“社会”接受控制,需要从两个视角得到理解:一个视角就是加上引号的那个具有特殊含义的“社会”。这个“社会”是与国家相对而言的建制,是一个公民个体将加入政治共同体必须交付的权力给予国家以后,保留下来的特殊空间。生命、财产与自由是“社会”中活动着的公民个体不可褫夺的基本人权,他们的隐私不受侵犯,他们享受宪法和国家赋予的一切合法权利,他们保有国家提供生存发展资源并享有公平对待的兜底福利。就此而言,私权的公共维护与公权的私人限制相对而在,不可偏废。与国家权力的以法治理相比较,“社会”的依法自治是其特点。在国家权力发挥社会控制作用的时候,其控制的目的旨在保护“社会”,让一个受到保护、因此保有理性精神且秩序良好的“社会”与国家权力积极互动,从而有力维护现存社会系统。可见,国家的社会控制目的不是扼制、挤压或扼杀“社会”,恰其是培育、激活和扶持“社会”。

另一个视角则是“控制”。这里的“控制”,是一个中性词,而不是贬义词。作为中性词的控制,是指因势利导,让社会在一些管控举措下生成自生自发秩序,并由此形成更有利于社会安宁和谐与持续发展的扩展秩序。作为贬义词的控制,则是指国家权力以高压手段约束和强控社会,让社会全无抵抗能力、博弈能力与自治能力,只能臣服于权力的强制方式。就此而言,中性化的社会控制,便是能够发挥良好的社会作用的控制机制:一方面是因为社会意识到相应的控制机制对社会是有利的,即有利于维护社会秩序,有利于保障社会成员的安全,有助于社会成员寻求发展,让社会处于一个安宁有序、未来可期的状态。因此,“社会”愿意接受“控制”。另一方面是因为社会意识到相应的控制机制是人们可以忍耐的。社会控制无疑会触及社会成员的隐私,当人们认为被触及的隐私不影响正常生活的时候,他们对之是可以接受的;一旦人们认为自己的生活曝光于天下,自己成为一个全无秘密的行为体的时候,他们的忍耐程度就会下降,并且在心中郁积不满。假如社会出现一定程度的动荡,这种不满就会让人付诸行为,促成颠覆社会秩序的从众行动——其循序呈现为守规的社会运动到破坏性的社会运动多种形式。因此,控制“社会”必须严格把握可控的范围,而不至于越界而为,触发与社会控制初衷相反的、破坏与颠覆社会秩序的结果。

人工智能广泛用于社会控制,是社会控制技术飞跃性发展的结果。社会控制的智能化,会收到人们此前意想不到的控制效果。在社会控制可能发挥 作用的三个领域,即价值引导、制度建构与生活塑造三个领域中,其一,在价值世界里,软性的价值引导、也即是对人们的内在心灵世界的引导,仅从目前人工智能技术来讲,还显得有些无能为力。因为,人工智能还无法对人的内心世界发挥管控作用,除非人脑神经科学有了全面和实质的突破,人工智能才可能在这一领域发挥作用。但硬性的价值引导,人工智能已经能够发挥人类智能难以发挥的作用。所谓硬性的价值引导,指的是经过全面的技术监控,让人信守规矩、不耽于胡思乱想,从而在社会主流价值体系面前循规蹈矩。这就是前述的社会内化控制方式可能达到的效果。这对社会秩序的维持来说,已经凸显了一个不同于人力控制的、采取人工智能控制的完全不同往昔的结果。

其二,在社会制度设置及其守持上,人工智能已经发挥出重要的作用。仅就前述“天眼”所及的领域来看,它在维护社会基本秩序上的作用,已经大大弥补了人类智能与体能的不足,而发挥出全天候、不停歇、无伤害、无失误的守护规则、维护秩序的作用。再如连锁店的监控明显强化了顾客的守规, 大大减少了偷盗行为。幼儿园的监控明显有助于杜绝教师的不合规行为,保护了儿童受到周全照顾的权益。家居中的监控对财产、人身安全发挥了积极作用,降低了入室偷窃或其他不合规则行为的几率。工厂的监控不仅监督偷懒工人,促使工人合规工作, 惩戒不合规行为的员工,而且有利于保护合规或积极工作的工人的权益。公安消防监控有利于防火安全、消防灭火。银行监控有助于保护客户利益、保证雇员合规作业。军事设施监控有利于保证提高军事安全水平、保障国家安全。高速公路监控促使人们合规驾驶、减少交通事故,提升交通事故处置速率。余此类推。可以结论性地讲,人工智能引入社会控制,确实可以发挥维护社会秩序的正面作用。至于在惩罚违法犯罪上发挥的积极作用,近期案例前已论及,不再赘述。

其三,在生活世界的秩序制定与维护上,人工智能也已经发挥了有力维护日常秩序的作用。由于人工智能监控体系的运作,在日常生活的公共空间中,人们深知自己的一言一行都受到监督,因此会对公共空间的规则保有高度的警觉。在这种情况下,人们会在全方位、高技术的“他律”环境中,谨言慎行, 从而形成一种至少在形式上合规、以至于秩序井然的公共空间行为态势。相对于没有监控的公共空间而言,人们处在于一种自然、放松的状态中,可能在生活细节上更自我纵容,容易逾越公共规则的边界,带给他人以不便,造成公共规则的松弛,带来一些虽无重大伤害但却无益良风美俗的不利后果。

尽管人工智能对社会控制发挥了相当积极的作用,但它并不能直接保证社会受到全面、有效的控制——既维护社会秩序,同时也保有社会活力。原 因在于,社会控制的“社会”接受状态,对社会控制效果发挥着决定性的影响。一个接受控制的“社会”,大致可以区分为三种社会存在情形:一是社会处在常态之下,公众接受社会控制的程度最为正常。这种常态可以简单描述为,社会处在既定社会系统自我维持的正常情形,没有遭遇社会风险与危机,而且社会控制出自理性设计,旨在维护公众利益、社会秩序和公平正义,因此公众心悦诚服地接受一般意义上的控制,并自觉践行相关控制规则。以此为前提,就会让社会控制处在国家权力、社会公众各方都满意的状态。可以说,社会常态是社会控制的先设条件。这是社会控制设计,也是人工智能引入社会控制的原初预期——社会常态,既是社会控制的起点,也是社会控制过程的着力点,更是社会控制的目的性所在。

二是社会处在一定失序情境中,公众接受社会控制的程度有所降低。这种情况可以区分为两大类:一者,少数地区、一些领域,因为一些事件,导致抗拒或反对社会控制的情绪浮现。二者,不同地区、不少领域,因为相类事件,引发社会骚动,让社会控制处于废弛状态,并可能诱导社会公众抵制或颠覆社会控制。部分地区与领域的社会失序不是社会无序。但由于这些地区与领域无法保持社会常态,社会控制的效果会明显下降。在这种情况下,即便是高效的人工智能控制系统,所发挥的作用也会明显下降,甚至在失序的部分地区与领域,显得无效。可以说,失序社会让人工智能也难有作为。譬如常态下商店的电子眼可以有效约束顾客的偷窃欲望,但在失序状态下,不仅无法防止偷盗,甚至对公开的抢掠也无可奈何,只能听之任之。除非国家暴力介入,除暴安良,才能恢复社会秩序。

三是社会处在严重失序情况下,社会拒绝接受任何控制,控制基本失效。一个社会只要不受全方位、高强度的持续挤压,以至于无法维持常态秩序, 社会是不会拒绝接受控制的。如果社会控制长期处在高压控制之下,社会无法自我维持,失序无法自我修复,改革无法从容展开,那么,社会就会滑向一个逐渐失常、失控并最终丧失秩序的轨道。在社会动荡、暴乱或者革命的状态下,人们已经陷入了反对、拒斥、破坏和颠覆现存秩序的狂热之中,既定秩序会丧失它曾经发挥的社会整合能力,曾经循途守辙的人们此时满心期盼的是新的社会秩序。在社会动乱的情况下,技术监控体系完全无法发挥常态下的作用,并且国家权力方面会担忧这一体系被反抗活动的组织者与行为者所利用,甚至会关闭监控体系,直至下重手关闭互联网。人工智能的社会控制系统就此丧失它的社会效用。

可见,在社会控制的智能化时代,并不见得就降低了社会控制的难度。相反,因应于社会运转、社会变迁与社会周期调整社会控制,做到张弛有度、理性有效,才有希望保证社会控制智能化的满意效果。


三、驾驭风险

与所有社会控制手段一样,人工智能的社会控制方式,是着眼于人们普遍守法状态下的管控绩效而设计出的社会控制系统。这样的社会控制本身, 需要经过预效性和实效性的检验,才能成为真正有利于维护社会秩序,激发社会活力的社会控制机制。对社会控制的人工智能机制来讲,其预效性、即预期的有效性,依赖于两个先设的条件:一是技术的有效性,二是社会接受人工智能控制的自愿性。就前者言,技术的有效性是与社会控制的适宜性内在联系在一起的。这一适宜性,指的是与社会当下的控制需求比较一致的人工智能系统,它在技术上足以解决人力所不及的控制需要,并且不存在明显的技术风险,能够保证收到人力控制所不及的预期效果。就后者论,社会自愿接受人工智能的监控机制,是指让社会公众感受到这一控制机制带给人们的好处或便利,其所必然存在的侵犯个人隐私的风险不至于赤裸表露并引起人们的普遍反感,因此愿意接受无处不在、无时不有的人工智能监控。

就社会控制的人工智能技术来看,它有一个不断进步的技术发展过程。换言之,一个阶段上使用的人工智能控制技术,总是存在着便利性与缺陷性相形而在的特点。因此,当监控对象适应了这一控制技术并且发现其缺陷,或者社会公众活动方式发生了明显的重构,那么人工智能技术就必须在相应的技术进步条件下做出改进。否则,人工智能监控技术的有效性就会明显下降,以至于在技术上完全失效。这不是在社会发生动荡、失序与革命的情况 下出现的技术风险,而是技术本身的发展风险。加之一种社会控制的人工智能技术本身,就存在反向的技术模仿,从而化解技术监控的控制力道,因此不仅降低技术监控的有效性,而且让一项技术成为反监控手段,甚至成为反向谋取利益的技术手段。银行支付系统中使用的人脸识别,就已经被人脸的仿真制造所突破,失去了完整保证法律意义上的真实支付者利益的屏障作用,这项技术就此可能异化为侵害本应保护的合法网络支付者利益的违法犯罪手段。

就社会控制的人工智能引入所关联的社会公众自愿性来讲,试图保证他们对这种无处不在、无时不有的高技术监控心存的自愿心理,也是一个非常微妙、复杂的事情。社会心理并不是一个高度稳态的存在。相反,社会心理的变化速率之快,常常出乎人们的意料。尤其是在一个社会心理比较敏感的现实环境中,一个牵动社会公众的小事件,就很可能引发十分意外的社会震动、社会动荡,乃至于引发大规模的社会暴乱。先撇开人工智能因素来看这样的社会心态变化,就很容易为人们所理解。突尼斯2010年爆发的“茉莉花革命”,就是因为一个大学毕业生找不到工作而失业,他只好上街摆水果摊,但因警察认定他无照经营,并且没收了他的货物,他愤而自焚。结果引发了民众大规模的抗议,最后导致政府解体、总统流亡。 而引入人工智能因素来看,突尼斯民众对社交媒体推特、脸书的利用,可以说是反向利用人工智能技术的一个例证。可见,社会是否自愿接受控制并不是一个定数,而是一个变数。这个变数从接受控制的数量上的变化,可以迅速演变为拒绝接受 控制的实质性变化。因此,智能化的社会控制所依托的社会资源,是一个需要小心谨慎应对的问题。

社会的智能化控制,存在着种种需要认真面对的交错风险。譬如运用日益广泛的人脸识别系统, 由于并不仅仅是识别人脸,而是经由识别人脸,可以追踪人的身份信息、行动踪迹、人与财产、亲属匹配、 社交圈子等等。由于人脸识别系统并不由国家统一监控,各种商业机构、社会组织都广泛使用这一系统,公民个人信息被分散掌握在这些人与机构的手中,他们如何使用如此庞大的公民数据,就成为一个随己所愿的事情。这样的使用定势,其中包含的巨大风险,不言而喻。在人脸识别系统的实际推广中,安防与资本是两大推手,政府受便捷控制个人信息的吸引,成为激励两大推手勇于作为的最直接且有力的推动力量。这种三手相连的局面,让人脸识别系统在缺乏安全保障的情况下得到疾速推广。其间所存在的民事与刑事风险之大,应当引起人们的高度重视。这还是在人脸识别这种人工智能社会控制技术处在国家有效掌控秩序的条件下的风险,如果国家陷入某种失序和动荡的境地,这些智能控制得到的天量数据用于什么目的,便更是让人惊惧了。

为了防止社会常态下的人工智能控制风险,刑法学家劳东燕明确指出,商业机构所使用的人脸识别, 必须符合四个基本要求。“第一,收集方必须就相关信息与风险做明确而充分的告知,并事先征得被收集人的同意。未经被收集人的明示同意,不得将个人数据以任何形式提供给第三方(包括政府部门),或者让第三方使用相应的数据。在涉及犯罪侦查或国家安全的场合,可例外地予以允许,但需要严格限定适用条件与程序。第二,收集程序应当公开,并确保所收集的数据范围合乎应用场景的目的,未超出合理的范围。收集方不允许超范围地收集个人的面部数据,收集的范围应当符合相应适用场景的目的,并以合理与必要为原则。第三,收集方在收集个人的面部生物数据之后,应当尽好保管义务。收集方应尽合理的努力,对所收集的数据妥善保管;违反保管义务,应当承担相应的法律责任。同时,如果被收集人撤回同意,或者明确要求删除自己的数据,收集方应当对相应数据予以删除。第四,对人脸识别技术的应用场景,必须确保合法与合理,并避免侵入性过强的举措。收集方在特定场景中所收集的数据,原则上不允许运用于其他的场景,除非该场景是在合理的预见范围之内。如果擅自扩大或者改变数据的应用场景,收集方应当承担相应的法律责任。”这是从社会常态情境出发,针对商业机构使用人脸识别技术所具风险的一种较为周全的预防设想——只要商业部门遵纪守法,只要政府管控部门循法而治,只要社会还具有正常的施压机制,商业机构大面积违规使用人脸识别数据的可能性是不大的。即便商业机构因为主观故意或管理不善,导致人脸识别数据的违规违法使用,那也是属于可以有效惩治的风险。

商业机构的人脸识别之用于社会控制,其风险问题可以依赖立法机构、政府部门和社会组织的管控、干预和施压,也许是可以成功解决的人工智能社会控制风险问题。不过,正如社会失序常常是因为旨在维护社会秩序、却失去控制方略的国家权力方面导致的一样,人脸识别这种社会控制手段,远超商业机构使用风险的恰恰是国家权力部门对之的使用。对一个现代的庞大政府体制而言,政府设计时预定的对内保护、对外御敌的双重功能,常常让政府生发一种无处不在、无时不有、无所不能的全智全能意欲。在面对一个更为庞大且远为复杂的“社会” 时,政府的管控积极性便呈现为一种对社会领域的全面侵入性,认为只有掌握关于社会的一切信息,政府才能发挥其统治与治理能力,从而实现建构政府的原初目的。

政府使用人脸识别技术的风险就潜藏在这样的积极作为理念之中。犹如前述,由于社会控制中引入人工智能,大大提高了社会管控的常态水准,因此,对激励管控者强化这样的管制手段,发挥了明显的刺激作用。犹如普通人对他人的一切具有好奇心一样,政府也对每个个体与群体的信息具有一种好奇心。因此,在公私场合安装的种种智能型的电子设备,便成为政府倾力收集它所感兴趣的一切信息的便利手段。它会利用法律赋予的权力,征用由商业机构采集的公民信息,结合政府自己用人工智能技术征集的信息,政府所拥有的公民信息,远非一般商业公司可以比拟。一般而言,在社会常态情形中, 政府部门只会在这些天量的数据中甄别对自己有用的东西,而不是将之作为全方位、高强度控制公众的手段。政府之所以这样做,不是因为缺乏全面甄别信息的愿望,而是因为其他几个原因无以实施:一是因为没有必要,二是由于成本高企,三是源于效果不彰。一旦社会有任何政府认定难以把控的风吹草动,那么政府就会提升控制社会的广度与强度,相应对自己收集到的数据可能发挥的管控作用发生自觉。由此,政府对日常状态下的信息智能收集和非常情形下的信息智能利用,就具有了直接贯通的动力。

因此,有效控制人脸识别之类的智能技术风险, 必须重视政府行为的合法化、规范化和合理性。一方面,在政府无法有效保证人脸识别之类的社会控制技术的安全性的情况下,政府不能冒险广泛使用和推广相关技术。否则政府就逾越了政治共同体建构政府的底线,既不能有效保护公民权利,而且可能侵害他们在成立政府时从未交付国家行使的三类基本权利(生命、财产、自由)。倘若政府一意孤行,不顾安全地监控公众信息,政府事实上就等于将自己置于社会的对立面,进而将自己安置在了一个对抗社会的危险地位上。另一方面,即使政府为了公众利益而合法、规范且合理地使用社会控制的人工智能技术,政府也必须将使用的范围、地点、方式、手段、目的等等,明白无误地交代给公众。政府不能以“钓鱼执法”为目的,对公众信息进行收集。再一方面,政府在惩治公民个体与社会组织的违法犯罪行为时,必须合法使用诸如人脸识别系统获得的有关信息,而不能随意将犯罪嫌疑人或有关证人的信息曝露出来,置证人于有害安全的危险境地,置罪犯于无法合法申辩的险境。最后,政府在使用人工智能的社会控制技术的时候,必须承诺国家与社会的边际界限、承诺国家与公民个人之间的边界、承诺公私领域的结构性差异,从而只是在公共授权的公共领域中使用相关监控技术。进而从根本上保证人工智能监控手段是一种具有严格限制的社会控制手段, 而不是一种无孔不入的、窒息社会生机的高压统治方式。

从现代社会视角看,当政府合法、合规、合理行 使权力时,社会也就会处在一个安宁有序的状态。但政府总会受内外部困境影响,间歇性出现权力痉挛,因此无法一直保持一种高效、廉洁、有序、认同的状态。社会也会因此无法长久保持宁静、理性、守规、积极的状态。这就让人们意识到,社会运行是有周期的。社会周期呈现为制定规则、权力推行、 绩效显现、效用衰变、抵制出现、抗拒加剧、规则失效、社会动荡、重构规则的不断继起、连续循环。当政府运行周期与社会运转周期在良性一端叠合的时候,国家便进入人们通称的黄金时期;当两个周期在恶性一端叠合的时候,国家便陷入危急状态,甚至掉进崩溃陷阱。社会控制必须避免堕入后一个极端。

需要明确指出的是,人工智能确实大大提高了社会控制的绩效。但愈是有效的社会控制对“社会”所具有的压抑性,总是会让社会必须的分享喜悦与分担忧愁的情感受到显著抑制。分享喜悦与分担忧愁,是社会运行所必须的张弛结构。所谓“一张一弛之谓道”,对建构适当的社会控制机制,是极富教益的。一般而言,在社会控制的常态下,适度压抑社会不会导致令人担忧的负面后果。不过,社会受控长久,尤其是受人工智能的高强度控制太过持久,一直让社会的喜怒哀乐无处发泄,让社会情绪无法舒张,因此不断累积着社会的紧张,这种紧张就会按照一定的周期律释放或爆发。如果说按照周期律释放与爆发的社会紧张,还不至于一下子导致社会失序、社会动荡或社会暴乱的话,那么另一种社会危险就必须高度警惕,才能预防或控制:这就是对社会的高强度控制,可能并不一定按照周期爆发,而是不知道在哪个时间、哪个地点、哪个事件上引爆社会危机。面对这样的社会危机、国家危难,基于机器设计的人工智能是完全无能为力的。就此而言,防止长期的高强度管控,与防止偶然爆发的社会危机与国家危难,具有同等的重要性。

在社会常态下预防偶发性的社会危机与国家危难,需要理性设定应对社会问题的大思路:对一个国家高压管控具有较强适应性的社会来讲,人们一般都会对社会变迁节律失去敏感性。这样的社会,好似运行在一个波澜不惊的水平面上。人们会习惯性认定,除开少数铤而走险的人士或人群外,社会公众与国家权力都不必去想象其他形式的社会危机。其实,无论是国家与社会明确分流的现代机制,还是国家塑造社会而使两者打上明显的国家烙印的体制,都没有避开社会周期的可能。因为社会在主体与制度的构成上,具有明显的个体差异性、组织区隔性、制度不均衡性,它总是会出现程度不同的起伏与波动。为社会预留一个可以化解紧张、舒张压力的空间,是让社会周期不至于陷于危机状态的必须。就社会能够承受的角度看,一定要给出一个循规蹈矩的社会运动空间,而不能将社会运动看作是一头怪兽而唯恐出现、全力扑灭。社会运动是一种高级形式的社会控制机制,给出社会运动的制度机制,既有利于释放社会紧张,又有利于在维护既定社会机制的基础上重整社会秩序。合法合规的社会运动与超越法规的社会动荡是不同的。社会运动可以完全处在法律约束范围,也可能溢出法律界限偶发地出现违法行为,但不会出现普遍的颠覆国家与社会的行为。一旦社会陷入“法不责众”的乱局,那社会的失控就是必然出现的现象。当这种情况出现的时候,基于管控的人工智能之社会控制设计就会陷于失控状态。面对群情汹涌的社会动乱,就是再怎么先进的人工智能社会控制系统,对维护社会秩序也爱莫能助。


四、为良序社会整合人类智能与人工智能

社会状态总是在常态与非常态之间运行的,社会运行的周期性由此呈现给人们:两种状态总会因为某些机缘出现交替,而不会一直停留在一种状态上不出现任何变化。在人类采取种种举措致力维护常态社会秩序的情况下,人工智能的引入,为提高维护既定社会秩序的成功率发挥了令人瞩目的推进作用。但取决于人工智能总是人类智能设计出来的结构性特征,人工智能并不能代替人类智能单独发挥有效的社会控制作用。

从目前情况来看,在总体上讲,人工智能乃是明确受限的技术。它之所以受到限制,一方面是技术的原因。人工智能是仿照人类智能的技术再造,它可以在机械重复的劳动上取代人类,这从广泛应用于工业生产活动中的智能机器手得到印证;也可以在某些智力游戏上胜过人类,这可以从、Alpha Go战胜人类顶尖围棋手上得到证实;还可以在某些情感如尊重需要上表现出不弱于人类的反应,这从机器人索菲亚在人类对她显出不尊重的时候表示不满上得到坐实。但从总体上讲,智能机器装置的这些能力,都是遵守人类设计的既定程序做出的反应,并不是人类那样通过大脑做出的自主反应。即便未来智能机器人可能实现高度的人机融合,机器能够表现出某些自主反应环境的能力,展现机器自我生机的前景,其取人类而代之的可能性也不大。原因在于,人脑科学很难促成人脑复制的技术,这就是机器人终究只能是机器人,即是接受人类指令的“物”,而不是“人”的终极理由。人脑的镜像神经元测定,可以最大限度地为人工智能的发展提供支持。但人的大脑做出反应的情感与社会机制是无法仿造的。因此也注定了高级智能机器人无法成为超越人类、并反过来控制人类的存在物。即便人工智能专家对大规模的智能杀伤性武器忧心忡忡,因此担忧人类会不会成为人工智能的奴隶。但可以乐观预测,这些武器也是人操作而致, 最终还需要人类出手解决彼此纠纷、战争危机与生命安顿问题。

另一方面限制人工智能的是社会原因。人工智能确实在诸多领域中取人类而代之,其来势凶猛,以至于让人胆战心惊地设想人工智能控制人类社会的可怕前景。谨慎地看,由于人工智能的发展正在急速展开,我们没有理由贸然宣布这些担忧属于杞人忧天。但这种危险具有某种社会抵抗的天生可能。人类社会的组成,并不仅仅是表面上的诸种制度的捏合体,背后存在繁多而微妙的社会精微结构,并且一直在交错发挥作用,据此支撑起人类社会的广厦。一者,人工智能很难独立构成社会,因此它只能成为人类社会的依附者而存在并发挥作用。二者,即便在很多领域中人工智能似乎在挤出活生生的人类社会机能,譬如最复杂微妙的男欢女爱已经可以用充气娃娃临时替代。但是,人工智能与人的“男”欢 “女”爱毕竟是人机合作的产物,机器可以满足人的生理需要,但很难满足人的心理需要。至于人体的男欢女爱催生的微妙心理过程,就更是人工智能机器人所难以惟妙惟肖给予与之交欢的男女个体的。正是因为如此,专业医生才会警告那些使用充气娃娃的人士,其行为既不利于身体健康,也不利于心理健康。这背后让人可以进一步探问的是,以人工智能替代男欢女爱,它对社会伦常秩序会发生何种影响?从伦理学的视角对之的思考,增加了对类似人工智能产品的社会警觉性。更为重要的是,人类社会的进取机制可以增强人类智能胜过人工智能的信心。“人类的创造力是无限的,如果我们的基本需求被机器人和人工智能满足,那么我们将找出娱乐、教育和照料他人的新方式。”这种人类社会的自我突破,起码是目前人工智能发展水平上,还难以设想的人工智能的社会控制事宜。

再一方面限制人工智能的是政治原因。无疑, 就目前世界先进国家来看,各国政府是明确鼓励发展人工智能技术的,而且在人工智能用于社会控制上,也迈出了极大的步伐。但在人工智能用于社会 控制会引发某种不可预知的危机意识引导下,即便是人工智能专家,也在呼吁政府加强对人工智能技术的监管。而政府方面也闻声而动,展开了以行政举措驾驭人工智能的尝试。人工智能发展极快的美国,便有不少城市禁止使用人脸识别系统。理由有二:一是技术的不成熟。美国的人脸识别,由于肤色差异,对白种人和黑种人的识别成功率差别很大(据报道,针对黑人女性的错误率高达21%~35%, 针对白人男性的错误率则低于1%),并且出现将国会议员识别为犯罪分子的荒唐事情。二则与一个国家的人文传统相关。在那些具有反对政府权力过于集中,对商业(科技)巨头垄断保有警觉的文化传统中,抵制人工智能的社会控制应用是自觉而强烈的;在那些各党派间政治和选战博弈的政治社会中,各种复杂的因素牵扯其中,政客(通过选举获得权力的人群)与官僚(经由文官制度在政府部门供职的人士),都会不约而同对人工智能的社会控制机制抱有警惕。因此城市当局拒绝使用人脸识别这种社会控制技术,就是可以理解的事情。

就这两者在全球范围的普遍反映情况看,一方面,技术永远都不会成熟到对人类不带来任何负面影响的地步,这既是技术进步的动力,也是人类必须规范技术发展的缘由。有必要对任何技术、哪怕是极为先进的技术保持警觉,对之的使用进行全过程的技术设防。因为越是先进的技术,越是具有潜在的更大风险。尤其是模仿人类智能的人工智能,又是用于社会控制的目的,对之失去警惕,很有可能对人类自身造成难以估量的负面影响。另一方面,从人文传统上讲,即便一个社会有对权力和利益的社会纷争保持警惕的传统,而另一个社会则没有,但对两种社会来讲,没有任何理由对权力和技术无条件缴械投降。在现代社会,权力总是在不同执掌者之间转移的。因此,对今天的执掌者有利的社会控制技术,可能对后来的执掌者就会显得不利;对这个执掌者有利的社会控制技术,对另一个执掌者可能就会是不利的。因此,即便站在权力方面设想,也不能过于贪图一种技术的便利,而丧失对技术进行适当控制的意愿。尤其是像天眼监控系统,让人人曝露在监控体系之下,这对执掌权力的人来说,也绝对是一柄双刃剑。至于在利益的社会政治纷争中,不同个体与群体之间相互善意或恶意利用监控数据来维护自身利益、或明或暗攻击对手,那也是超越不同政体形式的普遍现象。念及于此,对可能失控的监控技术,大家也就可以达成必须加以规范和约束的共识。在STS(science/technology/society)即“科学、技术与社会”的研究传统中,研究者一向很看重科学研究、技术创新与社会发展之间的关联性,并且在三者的相关性中审查科技成果及其应用对社会可能造成的影响。无疑,人工智能技术构成当下STS的重大主题。而当人工智能技术应用于社会控制的时候,就更是必须在科学、技术与社会的边际关系上严格审查这一技术对社会带来的巨大影响,以及由此可能产生的种种社会与伦理风险。从一般意义上讲,“科技无远弗届的影响力与重要性,使得一般人在生活中不只时时接受其影响,有时也需要面对特定科技所带来的社会后果、经济代价与伦理抉择,而必须在深思熟虑后采取立场。”从人工智能的角度看,由于这一技术的迅猛发展,以及由此负载的人类对这一技术的强烈期待,今日世界已经形成了关于人工智能的技术乐观主义氛围。为此,需要在STS的视角,强化人们对技术风险和社会责任的认知,从而提升该技术的社会应用可靠性。从人工智能应用于社会控制的特定视角看,天眼监控体系之类的社会控制方式的人工智能化,给政府部门带来管控社会以极大的便利。因此,权力部门仅看当下便利的特性让他们很难虑及其社会风险,很可能因此在灭罪行动中制造一些冤案,让公民个人的隐私毫无保障,让国家治理被提供人工智能监控服务的商业公司操控。这对国家治理明显是不利的。因此也需要在科学、技术的社会责任角度加以严格审查,并设计和实施相关的社会政治、法律规则的约束机制。

在STS的视野中,三个紧密关联的视角给人们以重要提示:一是科学研究与技术创新本身的专家研究及其责任意识问题,必须避免专家傲慢带来的 科技风险;二是科学技术的社会应用必须虑及社会风险,并对社会风险进行有效管控,从而让科学技术造福社会,尽最大可能避免对社会造成伤害;三是对急于利用科技便利的社会进行理性引导,避免急功近利地将不成熟的技术推向社会公众,并因此给社会带来不可预估的负面影响。就此三者而言,从分别的角度看,做到已属不易;在关联的角度看,做起来就更为困难。就前一种情况而言,三方面都具有失控的风险——人脸识别的犯错,已经构成这一系统明显的技术缺陷;而应用人脸识别系统的商业机构与政府部门,对之有很高的期待,因此不遗余力地加以推广,结果赋予它很难承受的社会政治功能;社会公众对之的可有可无,对之侵害隐私的担忧,对无处不在、无时不有的监控的反感所存在的抵触心理与破坏情绪,没有得到应有重视,因之而构成难以预估的社会风险。尤其值得重视的是社会公众对技术的反应机制。因为从总体上讲,社会失常的偶然性,不是基于社会常态设计的人工智能管控机制所可以预期的。假设人工智能的技术是完善的,但对这一技术监控的社会来讲,则是动态运行的。因此不可能是完善的、甚至可能是不能预期的。譬如2019年智利大动荡的直接肇因,仅是因为公共交通上调四美分价格。这是一个微不足道的价格变化,但却引起了智利的普遍暴乱,社会陷入严重的失序状态。从深入分析的角度看,智利暴乱确实有其前因后果。但人们很难设想四美分会引发如此巨大规模的社会暴乱。这是社会情况的复杂多变、难以把握的一个典型反映。

从三者关联的视角看,像人脸识别这样的社会控制技术体系,存在着交错而在的风险性:既包含人脸识别的技术精准度问题,也包含技术应用的社会政治意图上的无所不能期待,更包含社会公众对这项技术监控的接受与反感的微妙心理变化。因此,当人工智能用于整个社会的监控时,三者之间关系能否顺畅开合,会对它发挥的社会控制效果发生决定性影响。而其中令社会控制的国家主体难以把握的,不是技术问题,而是社会问题。当社会风险增高,社会出现诸如智利、伊朗、委内瑞拉、玻利维亚等国的动荡和暴乱时,人工智能不仅完全无法发挥社会控制作用,而且因为掌权者担忧人工智能被抗议者、反叛者反向利用,甚至会关闭整个网络。这时, 即便具有最先进、最可靠、最有效的人工智能社会控制技术,也无法发挥任何期待中的控制社会的实际作用。

从这个特定的角度讲,社会控制绝对不能单纯依赖人工智能技术。不宁唯是,何时、何地以何种方式引入人工智能社会控制技术,在何种期待下、以多大范围和强度使用人工智能的控制技术,都需要人类智能来决定。因为在社会控制方面,只有人类智能才能够准确把握战略布局、时势针对、举措调适、 因势利导、因果关系、接受程度、危机处置、开关系统等等关乎社会控制的重大决策。以诱导社会、激活 社会为共在目的的社会控制,更多依赖的是人类智能,而不是人工智能。为此,以良序社会(well-ordered society)的建构为目标,有效整合人类智能与人工智能,让社会控制进入一个良性轨道,便成为处置人工智能与社会控制关系的基本指南。

良序社会,是一个建立在公平正义基础上的社会。“一个社会,当它不仅旨在推进它的成员的利益,而且也有效地受着一种公共的正义观调节时,它就是一个良序(well-ordered)的社会。亦即,它是一个这样的社会,在那里:(1)每个人都接受、也知道别人接受同样的正义原则;(2)基本的社会制度普遍地满足、也普遍为人所知地满足这些原则。在这种情况下,尽管人们可能相互提出过分的要求,他们总还承认一种共同的观点,他们的要求可以按这种观点来裁定。如果说人们对自己利益的爱好使他们必然相互提防,那么他们共同的正义感又使牢固的合作成为可能。在目标互异的个人中间,一种共有的正义观建立起公民友谊纽带,对正义的普遍欲望限制着对其它目标的追逐。我们可以认为,一种公共的正义观构成了一个良序的人类联合体的基本宪章。”简而言之,良序社会是值得期待的现实社会形态,它建立在差异性合作的基础上,稳定在共同正义观的基石上,受到公民友谊纽带的强有力维系。这样的社会,显然不是任何受程序指引的人工智能所能够直接设计出来并加以有效维护的社会形式。这样的社会,只有依靠人类智能才能建构,也只有依赖人类智能才能维续。但人工智能提供的某些技术性支撑,可以在具体事务上极大优化人类对社会控制实际事务的处置。人工智能对人类智能的补充作用值得重视,对人类体能的有效替代值得礼赞。就此而言,以良序社会建构为目的,整合人类智能与人工智能,便成为高阶的社会控制的一个上佳出路。


原载:《人文杂志》2020年第1期



进入 任剑涛 的专栏     进入专题: 人工智能   社会控制   社会失常  

本文责编:frank
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 政治学 > 政治学理论与方法
本文链接:https://www.aisixiang.com/data/120146.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统