龙豪:聚焦人工智能的法律与道德议题

选择字号:   本文共阅读 504 次 更新时间:2022-08-18 23:08

进入专题: 人工智能  

龙豪  


美国《华盛顿邮报》6月报道,美国谷歌(Google)公司的一名工程师称,该公司研发的人工智能聊天机器人(LaMDA)作为一种优化对话的自然语言处理模型,已具备感知能力。但谷歌公司并不同意这一说法,还为该工程师安排了“带薪行政休假”,此事件在全球引发讨论。7月,英国皇家国际事务研究所国际安全项目研究分析师亚斯米·艾菲娜(Yasmin Afina)于该机构官网发表文章认为,过度炒作人工智能技术不仅危言耸听,而且具有误导性,有可能会转移公众对重大道德、法律等风险的注意力,使相关从业人员以一种对人工智能可靠性过度自信的态度开发新技术。只有聚焦法律与道德维度,人工智能的发展才会以人类社会的稳定与福祉为前提。

人工智能的内在风险

从协助推进癌症筛查研究到支持应对气候变化的相关行动,人们看到了人工智能在推动社会各领域进步方面存在的巨大潜力。但这一切都建立在人工智能技术以可靠方式运行的基础上,而且还要保证研究人员和终端用户都能意识到技术的局限性,及其存在的法律、道德和社会风险,并积极寻求将风险带来的伤害降至最低。然而,当前的媒体和人工智能行业存在一种不良倾向,就是对人工智能技术性质和功能的描述过于夸张,随之造成公众对这些技术及其带来的道德和法律风险的关注失焦。

事实上,已有越来越多的文献记录了这些普遍存在的技术带来的危害,其中包括性别歧视、种族主义、能力歧视、权力集中、缺乏明确的民主监督和问责机制以及侵犯隐私。例如,像谷歌的LaMDA这种大型语言模型,有可能协助完成诸如使用聊天机器人为客户服务提供支持、以更快的速度和更高的准确性提高翻译服务水平等过程,甚至可以收集和整理来自大型数据库的关键模型和重要发现。然而,此类模型也存在固有的道德和法律风险。

第一,在吸收霸权世界观的同时输出有害偏见。研究人员发现,从互联网中收集的来自美国和英国的英语文本,过度凸显了白人至上主义、厌恶女性、年龄歧视等观点。如果将这些数据用于训练大型语言模型,会不可避免地导致此类有害偏见的输入。第二,恶意生产和传播虚假信息,从而对个体和社会造成严重伤害。第三,与语言加速消失现象息息相关。大多数大型语言模型是通过英语和其他主要语言进行开发和训练的,此类模型部署得越多、越普遍可靠,就越会导致地方性语言的破坏甚至消失。

正确叙事的重要性

人工智能技术对现实生活造成的严重影响,揭示了采用批判性方法看待这一问题的重要性。耸人听闻的叙事方法不仅与现实脱节,而且还会引发以下潜在风险。首先,对这些技术产生过度自信的情绪,并随之导致对技术的过度依赖以及缺乏适当的监督。这主要是因为人工智能技术的能力和可靠性在无意中被夸大了,导致人们对其不足方面认识不到位。例如,对自动驾驶汽车和导航系统的过度自信,可能会对驾驶员和乘客的安全造成严重甚至致命的伤害。

其次,人工智能的拟人化可能会误导政策制定者和公众提出错误的问题。当前,主流的媒体和新闻叙事,将人工智能概念描绘得与人们的关联性很强,而不仅仅是一些无形的、充满代码的程序,其实后者才更接近人工智能的本质。随着该领域的进一步发展,甚至有人认为人工智能越来越接近通用人工智能,即具有与人类相似智能水平的程序。这极有可能误导公众和政策制定者提出错误的问题,进而衍生出无意义的辩论方向,如机器人是否有法律责任,而非聚焦开发人员在致命事故中是否负有刑事责任等有意义的讨论。

最后,关于人工智能的夸张描述,加上人工智能的拟人化,导致何为重要技术的门槛大幅提高。军事领域的“杀手机器人”和“致命性自主武器系统”(LAWS)这两个术语都是类似情况的产物,低于这种高门槛的技术有可能遭到忽视。有人为此争辩,认为人工智能领域的绝大多数军事投资不会用于致命性自主武器的开发。但这并不意味着低于“杀手机器人”和“致命性自主武器系统”的技术带来的问题会有所减少,比如,那些为大规模监视和情报收集而开发的程序也存在潜在风险。

重新定义讨论范围

如果不重新定义人工智能的讨论范围,包括国家和大型科技公司在内的参与者,将有意避开法律和道德领域的讨论,特别是正在开发和部署的技术领域,目的是为其技术合规铺平道路。虽然主要利益相关者建立了应对关键道德和法律风险的流程,但过程不透明,缺乏适当的监督,最终还是无法解决这些技术的内在风险。为此,应从以下几方面着手避免人工智能技术带来的伤害。

第一,来自公共和私营部门的主要利益相关者,要着力推动各界对人工智能技术的开发、部署和应用,及其社会影响和内在风险进行有意义的讨论。同时,讨论要以多样性、包容性和交叉性为基础,在此过程中,将边缘化人群和“非西方”的观点融入合作与跨学科研究。

第二,增强评估意愿与开放态度,重新评估人工智能技术对政府和企业之间关系的影响,以及对人类的整体影响;判断存在哪些特殊权利,使得部分人群因人工智能技术受益以及部分人群受到伤害;采取适当的政策措施予以应对。

第三,鉴于人机协作的范围越来越广以及人类愈加依赖人工智能,终端用户及其他相关方必须清楚技术开发和部署背后的逻辑与限制,提高这种透明度至关重要。也就是说,必须形成开放且可以随时访问的机制,让人们能够验证有关人工智能开发的声明。

第四,提高政策制定者的技术素养,将有助于作出有意义的决策,并防止因人工智能过度炒作和耸人听闻的叙事方式而导致焦点偏移。当前,机器学习领域的研究迫切需要做出更大的努力,从道德和法律的视角出发,重塑人工智能技术的开发和部署过程。

(龙豪/编译)


    进入专题: 人工智能  

本文责编:admin
发信站:爱思想(https://www.aisixiang.com)
栏目: 科学 > 科学评论
本文链接:https://www.aisixiang.com/data/136050.html
文章来源:本文转自中国社会科学报,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统