返回上一页 文章阅读 登录

胡泳:我们是如何被代码所统治的——重新思考数字化之六

更新时间:2021-09-05 08:59:03
作者: 胡泳 (进入专栏)  
可将语音实时转换为不同的语言。自动驾驶汽车利用机器学习来避免发生事故。甚至连Google的搜索引擎(多年来一直是人工编写规则的重镇)也开始依赖于这样的深度神经网络。

  

   2016年2月,该公司起用机器学习专家约翰·詹南德雷亚(John Giannandrea)出任搜索主管,并启动了一项重大计划,对其工程师进行新技术的再培训。秋天,他告诉记者:“通过建立学习系统,我们不再需要编写这些规则了。”

  

   然而这正是问题:依靠机器学习,工程师永远无法确切地知道计算机是如何完成任务的。神经网络的操作在很大程度上是不透明和难以理解的。

  

   换句话说——你猜对了——它是一只黑匣子(就像行为主义心理学家眼中的大脑)。随着这些黑匣子承担着越来越多的日常数字任务的责任,它们不仅将改变我们与技术的关系,还将改变我们对自己、我们的世界以及我们在其中的位置的看法。

  

   从上帝到训狗师

   《连线》杂志网站总监杰森·坦兹(Jason Tanz)写道:“从旧的角度看,程序员就像上帝,制定着着控制计算机系统的法律。而现在,他们就像父母或驯狗师。正如任何父母或者狗的主人可以告诉你的那样,他们由此就陷入了一种神秘得多的关系。”

  

   不仅训练的性质是神秘的,连结果也是神秘的。

  

   这意味着编程的结束、AI的开始。当工程师探究深度神经网络时,他们窥见的是数学的海洋:大量的多层微积分问题,通过不断推导数十亿个数据点之间的关系,可以得出有关世界的猜测。

  

   神经网络没有符号或规则,只有数字。这让很多人感到疏离。然而,不可解析的机器语言的含义不只是哲学上的。

  

   在过去的二十年中,学习编码一直是获得可靠就业的最确定途径之一。对于所有将孩子在课后赶到编程班的父母来说,他们是在为孩子的未来打算。

  

   现在,由擅长深度学习的神经网络运行的世界将需要不同的劳动力。由于机器使旧技能变得无关紧要,分析师早就开始担心AI对就业市场的影响,预计程序员用不了多久就会体会到睡不着觉的感觉。由此,工程师的定义也将被改写。

  

   当然,仍然必须有人训练这些系统。但至少现在,这还是一项稀缺的技能。它既需要对数学的高度理解,也需要对教学的输入输出具备直觉。

  

   谷歌的DeepMind AI团队负责人德米斯·哈萨比(Demis Hassabis)说:“它几乎像一种艺术形式,即怎么把这些系统最大程度地动用起来。世界上只有数百人可以做到这一点。”然而就是这么少的一些人,已足以在短短几年内改变技术行业。

   图片

  

   无论这种转变的专业意义如何,其文化后果将会更大。如果人工编写软件的兴起引发了我们对工程师的热爱,并且人们最终可以将人类经验简化为一系列可理解的指令,那么,机器学习将朝着相反的方向发展。运行宇宙的代码可能逃脱人类的了解。

  

   举一个小小的例子:当Google在欧洲面临一项反托拉斯调查、指控该公司对其搜索结果施加不当影响时,这样的指控将很难被坐实,因为就连公司自己的工程师也无法确切说明其搜索算法的工作方式。

  

   将会产生一种不确定性的大爆炸。事实证明,哪怕简单的算法也可以促发不可预测的紧急行为,混沌理论正是这么认为的。

  

   在过去几年中,随着网络越来越紧密地交织在一起,其功能也越来越复杂,代码似乎变得日益像一股外来力量,机器中的幽灵渐趋难以捉摸和不可控制。

  

   集发明家、创业家和科学家于一身的丹尼·希利斯(Danny Hillis)在《设计与科学杂志》上写道:“随着我们的技术和制度创新变得越来越复杂,我们与它们之间的关系也发生了变化。”“我们没有成为我们的创造物的主人,而是学会了与它们讨价还价,哄骗和指导它们朝着我们目标的总体方向发展。我们建立了自己的丛林,而这丛林拥属于自身的生命。”机器学习的兴起是这一旅程的最新、也许是最后的一步。

  

   这一切都可能令人恐惧。毕竟,编码至少是普通人可以想象的在训练营中习得的东西,而程序员至少是人类。现在,技术精英的规模甚至走向更小,而他们对自己的造物的命令已经减弱,且变得间接。那些制造这些东西的公司已然发现它们的行为方式难以治理。

  

   2015年夏天,当Google的照片识别引擎开始将黑人的图像标记为大猩猩时,公司赶忙道歉。一开始它最直接的解决办法是防止系统将任何东西标记为大猩猩。然后,公司表示,围绕着哪些标签可能出问题,它正在着手研究长期的修复办法,希望能够做到更好地识别深色皮肤的脸部。

  

  

   三年以后,Google没有取得任何进展。它完全阻止了其图像识别算法去识别大猩猩——为了不冒错误分类的风险,主动限制了自己的服务。

  

   《连线》杂志还发现,Google也限制其他种族类别的AI识别。例如,搜索“黑人”或“黑人妇女”只会返回按性别分类的黑白照片,而不按种族分类。

  

   另一起知名的事件是微软的聊天机器人Tay。该机器人2016年3月23日推出,面向18至24岁的青少年。微软希望能通过这款机器人更好地了解年轻人使用的随意性和戏谑性的网络交流语言。然而,发布仅24小时后,微软似乎开始编辑Tay发出的那些具有煽动性的评论。

  

   原因是,Tay上线仅几个小时,推特用户们便开始对其算法中存在的缺陷加以利用,导致它在回答一些特定问题时带上了种族主义色彩,如使用种族侮辱用语,支持白人至上主义和种族灭绝政策等。

  

   “人工智能聊天机器人Tay是一项机器学习计划,专为与人类交流而设计。”微软的一名发言人说。“在它学习的过程中,它发表了一些不合适的言论,能够反映出人们都和它进行了怎样的互动。我们目前正在对Tay进行一些调整。”

  

   随后,关注者质疑为什么“她”的某些推文看上去正在被编辑,从而促成了一场#justicefortay运动,要求软件巨头让AI“为自己学习”。微软关闭了Tay,一年以后推出Zo。Zo几乎立刻就因为有意规避潜在的攻击性话题而引入的算法偏见饱受批评。

  

   例如,Zo拒绝谈论中东、《古兰经》或《摩西五经》,无论是正面的、负面的还是中立的,但可以讨论基督教。

  

   克洛伊·罗丝·斯图尔特-乌林(Chloe Rose Stuart-Ulin)在Quartz的一篇文章中揭露了这些偏见,她说:“Zo的政治正确走到了一个糟糕的极端;一旦触发那些可能的诱因,她就会变成一个武断的小混蛋。”作者说,政治正确的机器人比种族主义的机器人更可憎。

  

   2019年,Zo也被微软关闭。像Google的图片识别程序和微软的聊天机器人所显示的,试图建立跨世界的算法,对硅谷的自我隔绝的文化而言,并非一出bug就寻求快速修复那样简单。

  

   一些科技领域的顶尖思考者和实践者相信,这一切都预示着我们将迎来一个人类放弃对机器的权威的时代。史蒂芬·霍金(Stephen Hawking)写道:“人们可以想象,这样的技术将智胜金融市场,比人类研究者更具发明力,比人类领导人还多操控术,并开发出我们甚至无法理解的武器。”

  

   埃隆·马斯克(Elon Musk)和比尔·盖茨等都对此表示赞同。霍金和其他三位科学家在《独立报》上写道:“尽管人工智能的短期影响取决于谁来控制,但长期影响取决于是否可以完全控制它。”

  

  


爱思想关键词小程序
本文责编:陈冬冬
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/128394.html
收藏