胡泳:人工智能不“智能”——重新思考数字化之十九

选择字号:   本文共阅读 10300 次 更新时间:2023-04-17 23:32

进入专题: 人工智能   数字化  

胡泳 (进入专栏)  


今天,在相当多的情况下,判断你是在与人类还是算法进行交互,正在变得越来越困难。决定谁值得信赖,获取正确的信息,以及阅读正确的“信任信号”,对人类来说已经足够困难了——想想你曾经上当受骗的情形。但是当我们开始将我们的信任外包给算法时,我们如何去相信它们的意图?当算法或机器人代表你作出你不同意的决定时,要是产生了意外后果,应该责怪谁?

人工智能要想替人类完成很多让大家放心的事情,有三个技术里程碑需要克服。

有多少人工,就有多少智能

在人工智能界,普遍可以听到一个说法:有多少人工,就有多少智能。

传统上,人工智能被娱乐业塑造出一个错误的形象,令我们以为它是在没有人类输入的情况下可以自如运作的技术。难怪很多人震惊地发现,谷歌助理依靠人类的帮助来提高自身对语音对话的理解,或者许多科技创业公司雇用人类工人来制作人工智能的功能原型和模仿品。

与传统计算不同,人工智能可以在一系列尚未由人预编程的情况下作出决策。人工智能大部分是关于可以通过经验学习和发展的系统,通常用于执行专业任务,如驾驶、玩策略游戏或者开展投资。这也被称为认知计算,需要通过输入大量数据进行培训。

现在我们号称进入了大数据时代,然而数据多并不意味着质量高,没有标注的数据可用性非常低。数据标注是重复性的工作,但它是大多数人工智能应用的起点。人工智能打着更好地把人从重复性的工作中解放出来的旗号,但现在存在一个悖论:要先通过人类的大量重复性工作才能让机器实现智能。

机器学习需要喂给机器大量的数据,而这些数据大部分是需要人工标注的,这在机器学习当中叫做“监督学习”(supervised learning),即根据输入-输出的样本对子,学习一个将输入映射到输出的函数或模式,并依此模式推测新的实例。

举例来说,要写一个机器学习算法,让它能够在网上帮我找到符合我口味的衣服,就需要训练一个能识别某种服装的程序。首先需要的是数据,因为必须给机器学习算法标注一些样本。训练者先搜集很多图片,然后把需要的标出正例。比如把所有衬衣图片标注出来,其他未被标注衬衣的,就是负例。机器会通过这些样本的标注,知道哪些是衬衣,哪些不是衬衣,哪些是主人想要的,哪些不是主人想要的。假如提出更高的要求,让程序识别浅色的衬衣,就要进一步把浅色衬衣的图片再标注出来,这样机器就会知道那些浅色的衬衣是主人更想要的。这样的条件可以不断趋向复杂,例如让机器识别带条纹的浅色衬衣,而所有这些对于数据的进一步处理,都需要人工来解决。

人的标注工作完成之后,就可以训练机器学习算法,让它不断去看图片,并对所看过的图片加以总结。然后它自己总结出一个算法框架,知道大概往哪个方向学习。机器学习的目标就是利用人们输入的数据,让自身的错误识别率达到最低。这个目标达成之后,机器就学成出师,可以为人工作了。

尽管数据标注一类的工作会逐渐为人工智能所接手,但放眼未来,人工智能将始终需要人类的投入和专业知识,从而以符合道德、负责和安全的方式充分发挥其潜力。例如,在社交媒体中,需要人类对算法的极端化予以纠正;在医学上,人类和机器的共同努力将产生比任何一方单独所能实现的更大效果;在自动驾驶等领域,人工智能的优越性是训练的结果,然而一旦发生了人工智能未经训练而不得不处理的事情,由人工智能驱动的优势就会被抹去。当这种情况发生时,人工智能的处理能力必须让位于人类的创造力和适应能力。

所以,人工智能必须处理好人工与智能的关系。最终,只要有新的应用让人工智能学习,有新的任务让它掌握,人工智能就始终需要人类的投入。

学习如何学习

“智能”这一术语的使用常常导致人们对AI的能力和拟人化风险的误解(这里的拟人化,是指将人类特征和行为分配给非人类事物)。今天可用的大多数AI技术都是根据特定目标学习或优化其活动,因此只能按照所传授的内容进行操作。其能力的大小,反映了培训的数据及培训的质量,以及AI流程的设计情况。通常,仍会需要人工处理异常情况。

这意味着AI目前的形式很狭窄,只能专门用于特定的应用程序,它所遵循的流程和程序是不可迁移的。Google DeepMind的AI应用程序AlphaGo专攻围棋,它和它的后继版本使用蒙特卡洛树形搜索算法,根据之前通过机器学习获得的知识,特别是通过人工神经网络(一种深度学习方法)的广泛训练,从人类和计算机棋谱中找到自己的棋步。这个神经网络提高了树状搜索的强度,从而在下一次迭代中产生更强的棋步选择。从2015年到2017年,AlphaGo击败数位顶尖围棋人类选手,先后被韩、中围棋协会授予职业九段荣誉,然而它在国际象棋中甚至无法击败普通人类玩家。

随后,AlphaGo的继任者AlphaZero做到了举一反三:它完全依靠自学,只需提供基本的游戏规则,人类和人类生成的数据都不构成其自我学习过程的一部分。在短短几个小时的自我游戏中,它就达到了人类需要 1500 年才能达到的技能水平。自学成才的AlphaZero对早期竞争版本的AlphaGo取得了100-0的胜利,目前被认为是世界上最好的围棋选手。同时,除了围棋,它也会下象棋与国际象棋。

DeepMind的AI新作Player of Games(PoG)是第一个在完全信息游戏以及不完全信息游戏中都能实现强大性能的AI算法(完全信息游戏如围棋、象棋等棋盘游戏,不完全信息游戏如扑克等)。这是向能够在任意环境中学习的真正通用AI算法迈出的重要一步。PoG使用了较少的领域知识,通过自对弈(self-play)、搜索和博弈论推理来实现强大的性能。

DeepMind为何长期以来一直投资于游戏类的人工智能系统?该实验室的理念是,游戏虽然缺乏明显的商业应用,但却构成对认知和推理能力的独特的相关挑战。这使它们成为人工智能进展的有用基准。近几十年来,游戏已经催生了为计算机视觉、自动驾驶汽车和自然语言处理提供动力的自学的人工智能。

现实生活中,拥堵地区的路线规划、合同谈判甚至与客户的互动等任务,都涉及到考虑人们的偏好如何重合和冲突,并达成相应的妥协,就像在游戏中一样。即使人工智能系统是自利的,它们也可能通过协调、合作和在人群或组织之间的互动而获益。那么,像PoG这样能够推理出他人的目标和动机的系统,可以为致力于成功协作的人工智能铺平道路,包括处理围绕信任而产生的问题。

当人工智能开始变得真正聪明并能够学习未被教授的行为时,会对人类认知产生什么影响?在这个本质上是加速选择的过程中,伦理学的作用是什么?

不知之不知

“未知的未知”(Unknown unknown)是前美国国防部长唐纳德·拉姆斯菲尔德(Donald Rumsfeld)在2002年2月回应记者提问时的名言。

2002年,美国以伊拉克政府拥有大杀伤力武器、并支援恐怖分子为由打算与其开战。同年2月12日,时任国防部部长拉姆斯菲尔德被问及有关的证据时,他解释道:“据我们所知,有‘已知的已知’,有些事,我们知道我们知道;我们也知道,有‘已知的未知’,也就是说,有些事,我们现在知道我们不知道。但是,同样存在‘未知的未知’——有些事,我们不知道我们不知道。”

在人工智能开发当中,同样存在“已知的未知”和“未知的未知”。“已知的未知”是指模式不能确定正确分类的例子。其解决方案是,在不确定的例子上从人们那里获得新标签。例如,如果一个模式不能确定一张照片的主体是否是一只猫,就会要求人去验证;但如果系统确定的话,就不会要求人去验证。虽然在这方面还有改进的余地,但令人欣慰的是,模式的置信度与它的表现相关,人们可以认清模式所不知道的东西有哪些。

另一方面,“未知的未知”是指模式对其答案有信心,但实际上是错误的。对人来说,这就产生了一个难题:需要知道人工智能算法何时工作,何时不工作。虽然电影推荐假如不是那么准确可能并不要紧,但一旦一个算法在自动驾驶汽车或医疗应用程序中表现不佳,其结果可能是毁灭性的。

人工智能系统的内部工作往往不透明,人类很难理解人工智能学习系统如何得出他们的结论。套用拉姆斯菲尔德的形容,这就是典型的“未知的未知”。所以,人工智能的一个必须克服的技术挑战是与人类自己相比的理解差距。为了解决这个问题,设计者和观察者已经讨论过在AI系统中需要一定程度的解释逻辑,以便检查错误并让人类学习和理解。

然而,人工智能系统复杂性的挑战并不容易克服。事实证明,机器“知道”得越多,我们就越不了解它们。用于人工智能的深度学习方法涉及从简单的构件中创建复杂的、分层的表征,以解决高层次的问题。网络在层次结构的初始级别学习一些简单的东西,然后将信息发送到下一个级别,在那里信息被组合成更复杂的东西。这个过程持续进行,每一级都从上一级收到的输入中建立。

与此同时,层数越深,优化算法就越难。最终,它们变得如此困难,以至于数据科学家无法解释它们是如何工作的。在某一点上,用于深度神经网络的算法以某种方式,奇迹般地产生了准确的结果——但科学家和工程师并不完全了解结果如何产生的。人工智能使机器能够进行预测,但很难让计算机解释它是如何得出结论的。这不仅提出了信任问题,而且还产生了潜在的法律和责任问题。在人工智能获得全力推进之前,这方面有很多东西需要探索和考虑。

人机共存,避免图灵陷阱

在过去十年或更长时间里,讨论人工智能时很少不与人类能力相比较。对许多人来说,随着人工智能的发展,它对人类产生了存在威胁,不仅仅关乎我们的就业能力,甚至涉及我们的生存本身。

斯坦福大学学者埃里克·布林约尔松(Erik Brynjolfsson)的研究认为,这种比较是无益的,现实中更有可能看到人类和机器以相互补充的方式一起工作。

1950年,阿兰·图灵(Alan Turing)提出了一个测试机器是否智能的方法:机器能否很好地模仿人类,以至于它对问题的回答与人类无异?从那时起,创造出与人类智能相匹配的智能就或隐或现地成为成千上万的研究人员、工程师和企业家的目标。类似人类的人工智能(HLAI,human-like artificial intelligence)的好处包括生产力的飙升、休闲的增加等,也许最深刻的是对我们自己思想的更好理解。但并不是所有类型的人工智能都像人一样——事实上,许多最强大的系统与人类非常不同。

过度关注开发和部署HLAI会使我们陷入一个陷阱,不妨称之为“图灵陷阱”。随着机器成为人类劳动的更好替代品,工人们失去了经济和政治上的讨价还价能力,变得越来越依赖那些控制技术的人。相反,当人工智能专注于增强人类而不是模仿人类时,人类保留了坚持分享所创造价值的权力。更重要的是,增强型人工智能创造了新的能力以及新的产品和服务,最终产生的价值远远超过了单纯的模仿型人工智能。虽然这两种类型的人工智能都能带来巨大的好处,但目前在技术专家、企业高管和政策制定者中,存在着对模仿型而不是增强型的过度激励。

尽管复制人类智能是一个诱人的愿景,但它同时也是个限制性的愿景。毕竟,时至今日,在人工智能可以做的事情上所取得的激动人心的进展,仍然主要局限于一个相对狭窄的领域,即对人类所能做的事情加以自动化。而那些可以被增强的任务的市场则要广阔得多。例如,今天大量应用中出现的人工智能助手就是很好的例子。

人工智能助手已变得相当擅长做许多关键而又令人难以置信的繁琐工作。例如,电子邮件过滤器和产品推荐引擎现在在帮助我们选择我们想要的东西方面相当有效,而流程自动化工具也越来越有能力挑起平凡任务的重担。在一些领域,记笔记和抄写是至关重要但又非常费力的工作,同时也吸走了时间和快乐,完全可以交给人工智能助手。通过处理这些较低级别的任务,就能让人类腾出手来做我们最擅长的事情。换句话说,人工智能在帮助我们更快、更有效地完成工作。

增强功能也许在医疗保健等领域最有潜力,这些领域的人员短缺是随处可见的,而且老龄化社会的需求也越来越大。人工智能已经被用来提供人类不可能做到的全天候监控。

更重要的是,如果我们能够换个思路转变我们的心态,人工智能可以释放出一波创新和生产力的改善,使社会中的所有人受益。

以酒店业为例,即使我们正处于一个劳动力危机之中,简单地考虑用机器人或其他形式的技术来填补这些缺口也不是正确的做法。相反,应该利用这个机会重新思考酒店如何做事,以及如何利用技术来处理更多的常规任务,从而释放出员工来真正为客户增加价值。

因此,尽管将自动化视为降低成本的可靠途径是很诱人的,但企业应该着眼于更大的前景,因为增强型人工智能提供了更大的经济效益。它所带来的好处更有可能在社会上广泛传播,因为自动化更容易导致裁员和混乱,就像过去引进的许多技术那样。

不平等是我们这个时代最紧迫的问题之一,而且有合理的证据表明,技术对社会当中的不平等已经产生了影响。人工智能的目标应该是使获得最佳服务和机会的机会均等化,而不是使之离我们越来越远。再也不可以接受的是,技术的所有好处都以牺牲社会其他人的利益为代价涓滴到资本所有者,特别是数字资本的所有者身上。

事实上,这种人工智能给相对少数人带来繁荣、同时造成社会其他人权力丧失的过程,就是斯坦福大学研究人员所说的“图灵陷阱”。虽然我们目前还没有落入这个陷阱,但重要的是,在我们还有机会的时候,努力在人工智能的发展道路上确保避开它。由于人工智能仍然处于相对早期的阶段,现在正是这样做的时机,并去积极想象一个人类仍然不可或缺的技术未来。


本文部分内容摘编自胡泳新著《流行之道》。


进入 胡泳 的专栏     进入专题: 人工智能   数字化  

本文责编:admin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 新闻学 > 新媒体
本文链接:https://www.aisixiang.com/data/141263.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统