返回上一页 文章阅读 登录

周剑铭 柳渝:智能哲学:人工智能的伦理学问题

更新时间:2017-02-11 00:04:26
作者: 周剑铭   柳渝  

   摘要:传统的人类中心的朴素伦理学信念已经受到人工智能迅猛发展的威胁性挑战,当哲学家、人类学家、伦理学家们尚在沉默时,一线科学家们已经做出一个权宜的回答:“阿西洛马人工智能原则”,即“为了人和人类利益的人工智能”(Beneficial AI);人类不确定性的未来仍是挥之不去的阴影,从基督教“世界末日”的预言到“上帝死了”(尼采)到“人死了”(福柯)的西方非理性思潮,再到今天“人类的终结”的猜测,似乎是越来越大的震动的脚步声,我们的文化和文明能够重生新的超越的伦理学吗?

  

   2017年1月在美国加州Asilomar召开的“阿西洛马会议”(the 2017 Asilomar conference),包括844名人工智能和机器人领域的专家们基于对AI和Robot迅猛发展的深切关注,联合签署了称之为“阿西洛马人工智能原则”(Asilomar AI Principles),呼吁全世界的人工智能领域工作者遵守这些原则,共同保障人类未来的利益和安全。

  

   AI和Robot的发展对人类自身的地位和价值产生影响,对此担忧由来已久,稍前一些,2014年由 Skype联合创始人Jaan Tallinn、麻省理工学院教授Max Tegmark、物理学家史蒂芬?霍金、SpaceX 和 Tesla Motors 创始人Elon Musk、牛津大学Future of Humanity Institute主任Nick Bostrom、 MIT Center for Digital Business主任Erik Brynjolfsson、哈佛大学遗传学教授George Church、MIT物理学教授Alan Guth以及剑桥大学、UC Berkeley 等人工智能方面的专家、教授,以志愿者的身份创立了“生命的未来研究所”(Future of Life Institute,FLI),2015 1月11日他们发表了一封公开信:Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter(公开信:为稳健性和利益性的人工智能而进行研究http://futureoflife.org/static/data/documents/research_priorities.pdf ),提出“我们的人工智能必须只做我们要它们做的”(our AI systems must do what we want them to do),即“有益的人工智能”(Beneficial AI)的口号,而对这样的问题的高度关注此前已经引起了业内外的广泛注意和严肃讨论并有所行动,如:AAAI 2008-09 Presidential Panel on Long-Term AI Futures (http://www.aaai.org/Organization/presidential-panel.php),Asilomar Meeting on Long-Term AI Futures

  

   (http://research.microsoft.com/en-us/um/people/horvitz/AAAI_Presidential_Panel_2008-2009.htm),Partnership on Artificial Intelligence to Benefit People and Society

  

   (https://www.partnershiponai.org/)等,而更早的时候,在实体机器人出现之前的上世纪四十年代,科幻小说家阿西莫夫(Isaac Asimov)著名的“机器人学三大法则”和以后的多种补充原则:LawⅠ: A Robot may not injure a human being or, through inaction, allow a human being to come to harm. 第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;LawⅡ: A robot must obey 0rders given it by human beings except where such orders would conflict with the first  law. 第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;LawⅢ : A robot must protect its own existence as long as such protection  does  not conflict with the first or second law. 第三定律:机器人在不违反第一、第二定律情况下要尽可能保护自己的生存。这三条法则实际是把机器对人的服从作为机器的设计和制造的原则,并没考虑具有“自主能力”、甚或有自我意识等高级人工智能的问题,现在那种“高度自主的人工智能系统”(Highly autonomous AI systems)或被称为“强人工智能”或“通用人工智能”(Artificial General Intelligence ,AGI)等似乎已在敲门了,人类如何应对?

  

   “阿西洛马人工智能原则”实际上是所有关注AI和Robot 的发展对人类所产生的难以估量影响的长期观察和思考的一次集中性表达,在更深远的意义上,可以看作是科学家顶替缺位的哲学家、人类学家、伦理学家,对人类自身的性质、地位和价值的一次严肃思考。

  

   1.Asilomar AI Principles 阿西洛马人工智能原则

  

   Research Issues科研问题

  

   1) Research Goal: The goal of AI research should be to create not undirected intelligence, but beneficial intelligence.

  

   研究目的:人工智能研究的目标,应该是创造有益(于人类)而不是不受(人类)控制的智能。

  

   2) Research Funding: Investments in AI should be accompanied by funding for research on ensuring its beneficial use, including thorny questions in computer science, economics, law, ethics, and social studies, such as:

  

   研究经费:投资人工智能应该有部份经费用于研究如何确保有益地使用人工智能,包括计算机科学、经济学、法律、伦理以及社会研究中的棘手问题,比如:

  

   ·How can we make future AI systems highly robust, so that they do what we want without malfunctioning or getting hacked?

  

   如何使未来的人工智能系统高度健全(“鲁棒性”),让系统按我们的要求运行,而不会发生故障或遭黑客入侵?

  

   ·How can we grow our prosperity through automation while maintaining people’s resources and purpose?

  

   如何通过自动化提升我们的繁荣程度,同时维持人类的资源和意志?

  

   · How can we update our legal systems to be more fair and efficient, to keep pace with AI, and to manage the risks associated with AI?

  

   如何改进法制体系使其更公平和高效,能够跟得上人工智能的发展速度,并且能够控制人工智能带来的风险?

  

   ·What set of values should AI be aligned with, and what legal and ethical status should it have?

  

   人工智能应该归属于什么样的价值体系?它该具有何种法律和伦理地位?

  

   3) Science-Policy Link: There should be constructive and healthy exchange between AI researchers and policy-makers.

  

   科学与政策的联系:在人工智能研究者和政策制定者之间应该有建设性的、有益的交流。

  

   4) Research Culture: A culture of cooperation, trust, and transparency should be fostered among researchers and developers of AI.

  

   科研文化:在人工智能研究者和开发者中应该培养一种合作、信任与透明的人文文化。

  

   5) Race Avoidance: Teams developing AI systems should actively cooperate to avoid corner-cutting on safety standards.

  

   避免竞争:人工智能系统开发团队之间应该积极合作,以避免安全标准上的有机可乘。

  

   Ethics and values伦理和价值

  

6) Safety: AI systems should be safe and secure throughout their operational lifetime, and verifiably so where applicable and feasible.(点击此处阅读下一页)

本文责编:zhenyu
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/103127.html
文章来源:作者授权爱思想发布,转载请注明出处(http://www.aisixiang.com)。
收藏