返回上一页 文章阅读 登录

黄治清:人工智能的伦理问题(一)

———从AI原则和亚马逊丑闻说起

更新时间:2019-08-02 08:57:34
作者: 黄治清  

  

   人工智能(Artificial Intelligence,缩写为AI)亦称机器智能,指在机器上的模拟人类智能,也有称AI指由人制造出来的机器所表现出来的智能。通常人工智能是指通过计算机程序来模拟人类智能。计算机科学中也有将人工智能研究定义为对“智能代理”(intelligent agent)的研究:任何能够感知其环境并采取行动以最大限度地实现其目标的设备。另一方面从词的角度看,人工智能的定义可以分为两部分,即“人工”和“智能”。“人工”即由人设计,为人创造、制造。关于什么是“智能”,较有争议性。这涉及到其它诸如意识、自我、心灵,包括无意识的精神等问题。人唯一了解的智能是人本身的智能,这是普遍认同的观点。但是我们对我们自身智能的理解都非常有限,对构成人的智能必要元素的了解也很有限,所以就很难定义什么是“人工”制造的“智能”了。因此人工智能的研究往往涉及对人智能本身的研究。其它关于动物或其它人造系统的智能也普遍被认为是人工智能相关的研究课题。

   人工智能领域的研究主要包括机器人、大数据、语言识别、图像识别、自然语言处理、自动规划、游戏和专家系统等。人工智能在业界有大量应用,在人们的日常生活中,无线支付、媒体、家电、手机等也开始大量使用AI系统。

   人工智能一方面给人们带来便利,另一方面也带来风险、问题甚至危害,例如对人类尊严和权利的践踏、对隐私权的侵犯、对公民的监控等。如何让AI的行为符合伦理道德规范,且让AI的使用合乎伦理道德,这是当前尤其迫切需要积极解决的问题。

   人工智能引发的伦理问题重大,将有一系列文章来做探讨和论述。本文先从人工智能原则和伦理法则谈起。一、人工智能原则/法则人工智能(AI)的迅猛发展与应用对社会对伦理思想带来了挑战、威胁、冲击和反思。2017年1月在美国加州举行了“阿西洛马会议”研讨有原则的人工智能,该会议聚集了学术界和业界的一群出色的人工智能研究人员以及一些经济学、法律、伦理学和哲学领域的思想领袖,会议形成了称为“阿洛西马人工智能原则”(Asilomar AI Principles)的人工智能原则,呼吁全世界在发展人工智能的时候严格遵守原则,共同保障人类未来的利益和安全。已有1273名人工智能/机器人(AI / Robotics)研究人员和2541名其他人(包括霍金)签署。(对伦理学领域来说人工智能和机器人两个概念的相近互通,因此下文中不做特别区分)

   2015年1月生命的未来研究院(Future of life institute)便已通过公开信(Research Priorities for Robust and Beneficail Artificail Intelligence: an Open letter),倡导稳健型和有益性的人工智能,提出要保障人工智能对社会的有益性( delivering AI that is beneficial to society )。

   早在实体机器人出现之前,科幻小说家阿西莫夫便已提出著名的“机器人三大法则”(Three Laws of Robotics)。机器人三大法则第一法则:机器人不得伤害人,或看到人受到伤害而袖手旁观(A robot may not injure a human being or, through inaction, allow a human being to come to harm);第二法则:在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令(A robot must obey the orders given it by human beings except where such orders would conflict with the First Law);第三法则:在不违反第一定律和第二定律的前提下,机器人必须尽力保护它自己(A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws)。之后他又在三法则之前添加了第零法则:机器人不得伤害整体人类,或坐视整体人类受到伤害(A robot may not harm humanity, or, by inaction, allow humanity to come to harm)。

   这些原则、有益性保障和法则都表达了防止人工智能/机器人对人造成伤害,保障人工智能对社会有益性的一些先见卓识。三大法则中特别强调的是机器人不得伤害单个的人,也不得伤害人类。由这些出色的人工智能专家和一些经济学、法学、伦理学和哲学领域的思想领袖提出的阿洛西马人工智能原则有较好的实践指导性。二、亚马逊丑闻亚马逊的工人福利是一个经常引起争议的问题。曾有记者卧底进入亚马逊工厂进行调查,力图呈现亚马逊仓库工人的真实现状。卧底记者詹姆斯(James Bloodworth)他在文章中透露,亚马逊工人会受到严格的监管。有的工人因为担心上厕所花费过多时间而被处分,所以选择在瓶子里解决自己的生理需求——尿在瓶子里。

   由亚马逊员工和组织社区成员组成的近 4000 名请愿签名者提交的亚马逊仓库报告。报告显示,74% 的员工因为害怕完不成既定目标被警告,从而避免使用厕所;而在这样的情况下,亚马逊仍然每隔几个月就增加一次员工的目标值(绩效);在亚马逊工作以来,有 55% 的员工患有抑郁症;57% 的人在成为亚马逊员工后变得“更加焦虑”,81% 的亚马逊员工表示不会再申请亚马逊的工作。

   为什么员工背负着如此大的压力?这些仓库工人连稍稍“摸鱼”(time off task)都不行,一定要牺牲上厕所时间来完成工作吗?

   美国科技媒体The Verge 近日获得的一份文件或许解释了缘由。“亚马逊的AI系统会跟踪每一个员工的生产率。并且针对质量或生产率会自动向员工发出警告或终止,而这一切甚至无需主管的输入。”这个AI系统甚至可以追踪员工的“摸鱼”时间(time off task),亚马逊将其缩写为 TOT。如果员工在扫描包裹的过程中休息“太久”,系统会自动生成警告,警告到达一定次数,员工可能会被AI直接解雇。一位叫作彼得伯勒(Peterborough)的亚马逊员工就曾对媒体表示“休息时间太紧了,当你走路去拿饮料的时候,你连上厕所的时间都没有,更不用说坐下了。如果你迟到 2 分钟,你就会受到滥用休息(break abuse)的警告提醒。如果你迟到了 5 分钟,你甚至会被解雇。”

   批评者对这种监管机制大为不满。他们认为亚马逊应该将员工视为人类,而不是一个可以不间断工作 10 个小时的工作机器人。“我们从工人那里不断听到的一件事是,他们实际上被当作机器人对待,因为他们受到这些自动化系统的监视和监督。它们被机器人所监控。”

   针对外界的批评和员工的罢工活动,亚马逊的回应依然十分官方:亚马逊第一天开始就为员工提供了具有竞争性的薪酬和福利。

   这样,仓库员工被压迫的原因也就显出:缺乏道德性的CEO甚不道德的使用了很不符合道德规范的AI系统监控员工。

   在这里机器不仅可以取代人类劳动,甚至机器可以自己决定开除人类,这种科幻小说里才有的场面着实震惊了美国企业界。人被当作机器对待,这也是令工人们尤其愤怒之处。对这些可以采用阿西洛马AI原则较详细地分析指出亚马逊公司在这里存在的社会伦理和法律的问题。三、从阿西洛马AI原则看亚马逊丑闻l 阿西洛马第11条AI原则

   Human Values: AI systems should be designed and operated so as to be compatible with ideals of human dignity, rights, freedoms, and cultural diversity.

      人类价值观:人工智能系统应该被设计和操作,以使其和人类尊严、权利、自由和文化多样性的理想相一致。

  

   而亚马逊CEO贝佐斯竟然让机器去管理人,让机器警告和开除人。让一只狗有权去管理人,去开除人,这是将人置于狗之下,是对人类尊严侮辱与侵犯。让机器有权去管理人,去开除人,这是将人置于机器之下,是对人类尊严侮辱与侵犯,是对人格的侮辱。对人格侮辱,对人类尊严侮辱,这如何不令人愤慨和谴责呢?

  

   l 阿西洛马第10条AI原则

   Value Alignment: Highly autonomous AI systems should be designed so that their goals and behaviors can be assured to align with human values throughout their operation.

   价值归属:高度自主的人工智能系统的设计,应该确保它们的目标和行为在整个运行中与人类的价值观相一致。

   亚马逊所设计使用AI,对让机器人去管理人,去开除人,去监督监控人。这是将人当作机器来对待,违背了人类的价值观。这也是让员工们感到尤其愤怒之处。

  

   l 阿西洛马第9条AI原则

   Responsibility: Designers and builders of advanced AI systems are stakeholders in the moral implications of their use, misuse, and actions, with a responsibility and opportunity to shape those implications.  

     责任:高级人工智能系统的设计者和建造者,是人工智能使用、误用和行为所产生的道德影响的参与者,有责任和机会去塑造那些道德影响。

  

   亚马逊AI丑闻中,不只是亚马逊CEO贝佐斯有责任,AI的设计者也有一定的责任。作者注意到亚马逊仅有一位在兼职的大学教授签署了阿洛西马AI原则,若该亚马逊AI设计团队认可并签署了阿洛西马AI原则,那就不该有这样违背人类价值观、冒犯侮辱人类尊严、侮辱人格的AI出来。

  

   l 阿西洛马第2条AI原则

   Research Funding: Investments in AI should be accompanied by funding for research on ensuring its beneficial use, including thorny questions in computer science, economics, law, ethics, and social studies, such as:  

   研究经费:投资人工智能时,应资助那些确保它的有益使用的研究,包括计算机科学、经济学、法学、伦理学以及社会研究中的棘手问题,比如:

  

How can we update our legal systems to be more fair and efficient,(点击此处阅读下一页)

本文责编:wuyukun
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/117541.html
文章来源:作者授权爱思想发布,转载请注明出处(http://www.aisixiang.com)。
收藏