返回上一页 文章阅读 登录

贾开 薛澜:人工智能伦理问题与安全风险治理的全球比较与中国实践

更新时间:2021-05-28 08:06:39
作者: 贾开   薛澜  

  

   摘要:从全球范围来看,利益相关体已经提出了诸多人工智能治理原则以试图通过“软体系”的方式应对人工智能发展和应用所引发的伦理问题与安全风险。本文指出,人工智能的主体性挑战、代码作为规则重要性的提升以及“黑箱性”的存在构成了以“软体系”应对人工智能伦理问题与安全风险的特殊原因,而推进理念共识、 聚焦局部议题、创新治理机制则构成了其具体内涵。虽然现有方案有利于推动人工智能伦理问题与安全风险的治理进程,但其在关键概念上的模糊、具体内容上的缺失或争议以及决策过程的不足,也引导人们产生更多反思。中国近年来在三个方向积极推进并于 2021 年初形成了《网络安全标准实践指南——人工智能伦理安全风险防范指引》的阶段性成果,该文件界定了人工智能治理的相关主体范围,总结了人工智能伦理问题与安全风险的具体类型,并明确了相关主体所应履行的治理职责。结合全球比较和中国实践的分析,文章进一步对未来人工智能伦理问题与安全风险治理的发展可能提出了三点展望。

   关键词:人工智能;伦理问题;安全风险;治理反思

  

   一、 缘起: 《网络安全标准实践指南——人工智能伦理安全风险防范指引》的发布及其背景

  

   2021 年 1 月,全国信息安全标准化技术委员会(简称“信安标委”)正式发布《网络安全标准实践指南——人工智能伦理安全风险防范指引》 (简称“《指引》”),《指 引》是国家层面出台的首个涉及一般性、基础性人工智能伦理问题与安全风险问题, 并具有可操作性的指引文件,为我国人工智能伦理安全标准体系化建设奠定了重要基础。

   近年来,伴随着人工智能技术的快速发展及其在不同领域的普及应用,以推动人工智能“安全、可靠、可控”发展为目标的人工智能合规体系建设也在同步推进。我国初步确立了合规体系建设规划和路线图①,提出了反映各方理念且具有一定共识基础的理念和原则②,也在具体领域制定或修订了针对特定问题的相关标准③。在此背景下,《指引》可被视为新的发展和补充,其既对理念和原则进行了细化,也未局限于特定问题,而是针对人工智能伦理问题与安全风险的共性挑战提出了较为具体的治理框架和行为规范意见。

   --------------------------

   ① 以《新一代人工智能发展规划》《国家新一代人工智能标准体系建设指南》等文件为代表。

   ②以《新一代人工智能治理原则———发展负责任的人工智能》《人工智能北京共识》等文件为代表。

   ③包括《信息安全信息安全技术虹膜识别系统技术要求》《信息安全技术基于可信环境的生物特征识别身份鉴别协议框架》《信息安全技术 指纹识别系统技术要求》《信息安全技术 汽车电子系统网络安全指南》《信息安全技术车载网络设备信息安全技术要求》 《信息安全技术智能家居安全通用技术要 求》《信息安全技术智能门锁安全技术要求和测试评价方法》等。

  

   对于《指引》积极意义的肯定,并不意味着人工智能伦理问题与安全风险治理便 “一劳永逸”地得到了解决,甚至不一定意味着我们距离问题的解决“更近了一步”。正如阿西莫格鲁等人所警示的,我们或许连“需要什么样的人工智能”这样的目标性问题,都还不甚了了(Acemoglu and Restrepo,2020)。因此,在我国以及全球范围当前都紧锣密鼓地推进人工智能伦理问题与安全风险治理之时,我们或许有必要跳出围绕具体风险、原则或条款的斟酌与争论,以更加宏观全局的视野认识我们面临的问题以及解决问题的不同路径,并在此比较反思的过程中做出适宜的选择。本文即基于此视角而展开的围绕全球人工智能伦理问题与安全风险治理研究和实践的综述性讨论,其在方法论上可归于文献综述类研究的“元研究” (meta-analysis)范畴。事实上,与近年来快速涌现的诸多人工智能伦理问题与安全风险治理方案相比,围绕方案起草过程的代表性、方案起草者的利益关联、方案有效性的评估、方案内容的缺陷与矛盾等问题的反思与批判,始终都是该领域为数不多但却未曾间断的重要研究路线之一(Greene et al. , 2019;Hagendorff, 2020)。本文可被视为沿袭此类研究并结合中国实践而展开的探索性讨论,希望为大多数关心但并不直接参与制度细节设计的公共管理研究者以及更一般的公众提供一个全球比较与反思的图景。

   本文接下来将从五个部分展开论述。第二部分将对人工智能伦理问题与安全风险治理的问题进行界定,既是明确研究对象,也是对可能存在的不同治理目标进行比较与区分。第三部分将总结当前存在的应对人工智能伦理问题与安全风险治理问题的主要方案,从理念、客体、主体三个方面做出综述性解释。第四部分将梳理针对已有方案的批评,在比较分析中厘清主要的反思视角。在此基础上,第五部分将回到中国:一方面总结我国当前推进人工智能伦理问题与安全风险治理的整体性 框架,另一方面也对《指引》的内容特点和重要意义进行解释。第六部分将从未来展望的视角对全文做出讨论和总结。

  

   二、 问题: 人工智能伦理问题与安全风险治理的独特性

  

   在经历自 1956 年以来的两次发展起伏之后,人工智能技术在当前迎来了第三次发展高潮,并被视为第四次工业革命的标志性技术而得到普遍应用。尽管批评者指出,人工智能不过是硅谷包装的“答案主义” ( Sollutionism) 意识形态的又一个体现 (Morozov,2019),但其“通过脑力劳动的机械化将人类解放出来以从事更有意义活动”的能力(吴文俊,2019),仍然使之在诸多领域体现了一般性技术的变革价值。但与此同时,越来越多的研究逐渐意识到人工智能应用过程中所伴随的治理风险。智能推送算法可能引发的“信息茧房”和极化现象,犯罪风险评估算法体现的种族歧视倾向,人脸识别系统可能构成的全面监控网络,以及就业冲击、舆论操纵、隐私侵害等,都是引发公众关注的典型案例,这也成为推动人工智能伦理问题与安全风险治理的直接动因。尽管到目前为止,各国鲜有出台针对人工智能风险治理的法律法规,但根据德国非营利机构 Algorithm Watch 的统计,政府、企业、社会机构、国际组织、学术团体等全球范围的利益相关体已经提出了 160 多个原则或倡议,构成了人工智能伦理问题与安全风险治理的“软体系”。①

   ---------------------------

   ① 本文所指治理“软体系”是区别于具有明确规则和约束力、强制力的“硬法体系”而言的,其旨在分析治理风险、提出治理目标、构建治理机制、提出治理方案,可被视为“硬法体系”形成之前的治理共识的达成过程,或者因难以具体、明确地界定不同主体的责任、权利、义务而采取的其他治理进程。

  

   但新兴技术应用结果可能造成个人权利侵害或社会权力结构转移的风险,并不仅限于人工智能,传统治理体系也并不一定不能做出有效应对。例如,技术社会史的研究揭示,条形码和扫码器的应用提升了零售业的供应链管理效率,因此更有利于大型连锁零售商的运营,但这也并不必然意味着权力结构的集中或中小供应商及零售业工人的边缘化。尽管美国形成了沃尔玛式的垄断结构并抑制了供应商和工人的博弈能力,但德国和丹麦却出现了大型零售商与供应商、工人共享规模经济收益的情况;而在英国和法国,情况则是工人共享收益而供应商却在大型零售商的垂直并购中被边缘化(Watson,2011)。换言之,技术创新和应用所带来的治理风险并不必然导致治理体系的变革,差异化的影响结果更多反映了不同文化、制度的历史沿袭,各国在面对相同技术治理挑战时也并非一定会采取类似的应对方案。由此, 当我们注意到全球范围内不断涌现的人工智能伦理问题与安全风险治理原则或规范之后,一个更深刻的问题便浮现出来:人工智能作为新兴技术的发展与应用,究竟具有何种不同于其他技术的特点,使之要求治理体系和机制的变革? 且这种变革为何又更多以“伦理问题与安全风险治理”的“软体系”面貌出现,而非采取更具约束力的法律规范形式?

   较为直接的答案注意到了发展与规制的二元平衡:在新兴技术发展和应用模式尚存较大不确定性的情况下,更具包容性的“软体系”有利于最大限度降低规制对于创新的前置影响。但这仍然只是对于一般规律的总结,并未对人工智能的特殊性做出解释。更多的研究注意到了人工智能作为一般性技术的能力,且与蒸汽机、电力等其他一般性技术不同,人工智能至少在以下三方面体现出独特性。

   首先,人工智能第一次体现了主体性挑战。传统数字系统的设计大都体现为人类借助表达能力而进行的需求界定、流程划分、条件判断等系列工作。与此不同,建立在机器学习基础上的人工智能技术流派的发展,可以基于大量数据的学习而自主总结出数据背后的规律与特征,由此体现出与“人”类似的“表达”能力。迈克尔·波兰尼曾指出,“人类知道的远比其能表达出来的更多”,这也构成了人类表达能力的 “波兰尼困境”(Polanyi,2009)。人工智能对此困境的突破,使之具备了一定程度的主体性,并因此使得建立在人类行为因果联系基础上的传统治理体系面临挑战(贾开,2019)。这一变化不仅提升了基于人工智能技术的数字系统的应用范围和深度, 同时也带来了诸如智能排序算法结果是否受到言论自由权利保护、人工智能创作作品能否被纳入版权范畴等一系列挑战。

   其次,人工智能的主体性挑战并不仅仅体现为作为技术产出的结果而引发的权利争议,更在于作为影响社会运行重要规则的形成方式的变化。网景公司创始人马克·安德森 2011 年在评论文章中提出的“软件正在吞噬世界”的观点,深刻影响了硅谷的发展进程,其事实上强化了劳伦斯·莱辛格在 20 世纪末提出的“代码即法律”的架构理论。在他们看来,数字化转型的过程,也就是代码作为人类社会运行第四种规则的影响力不断提升的过程。人工智能在扩大数字系统应用范围和深度的同时,也提升了代码作为“规则”的重要性,其不仅影响着每个个体的日常生活,也在一定程度上决定了政治选举、社会舆论、资源分配等诸多重大公共问题。但与法律、市场、社会习俗这些传统规则建立在政治合法性或历史合理性基础上不同,代码作为“规则”的形成过程却很难说具有实质或程序上的正当性。这并不意味着代码规 则仍然决定于利益团体的博弈,人工智能的技术实现过程决定了代码规则的形成过程是技术逻辑、社会逻辑和制度逻辑的复杂结合。以算法歧视为例,已有研究揭示, 之所以搜索引擎算法更大概率上会将黑人姓名与犯罪记录联系在一起,并非设计者有意为之,而是反映了搜索者对黑人是否犯罪这一现象更为关注的社会心理,机器 学习基于大量案例习得了这一规律,并通过最大化点击概率的技术目标将其体现并强化(Sweene,2013)。

最后,人工智能本身技术逻辑及其应用过程存在模糊性,也即“黑箱性”。如果我们在人工智能的所有应用场景都能发现并理解代码规则的形成机制,并及时采取救济或规制措施,那么前述两个独特性挑战也就不足为惧。近年来,数字平台公司不断调整、优化算法以使之符合社会价值要求的做法,便体现了此种思路,其也的确取得了较好效果。但限于商业秘密的保护,我们事实上很难知晓数字公司设计、应用人工智能的基本逻辑;另一方面,更重要的,以算法作为主要体现的人工智能技术已经成为“看不见的手”,并嵌入社会的方方面面,其在不同场景下管理、分类、约束乃至决定整个社会的运行,(点击此处阅读下一页)


爱思想关键词小程序
本文责编:admin
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/126723.html
收藏