返回上一页 文章阅读 登录

韩大元:当代科技发展的宪法界限

更新时间:2018-11-29 00:02:29
作者: 韩大元 (进入专栏)  
1917年的十月革命,催生了第一部社会主义国家宪法。今年正好是一百年。所以我们现在讲的近代的宪法发展史和科技的发展史主要是讲一百年以来的历史,一百年以来我们经历了两次世界大战。

   当我们回顾社会主义宪法在人类文明史上做出的重大贡献的时候,我们应该感到很自豪,为什么呢?因为同学们知道“社会主义”这个词主要来自拉丁文的“社会”这个概念,而“社会”这个概念最核心的价值就是公正、公平、均等,社会主义所体现的是人类的正义的价值追求,它的理念建立在1918年的苏俄宪法。大家都熟悉的1919年的魏玛宪法,从近代宪法向现代宪法转型的魏玛宪法,体现了强烈的社会主义宪法的因素。今天我们看到的德国宪法,包括劳动者的保护、社会福利、社会公平概念、劳动者罢工权的规定,其实思想来源都来自于1918年的苏俄宪法。魏玛宪法制定过程中,受到苏俄宪法的影响,把大量的社会主义的正义、公平的因素引入到资本主义宪法体系,明年正好是威玛宪法的一百年,在回顾一百年的西方国家的宪法历史发展的时候,我们会看到社会主义的正义理念。

   所以在宪法与科技发展互动中,我们看到了社会主义宪法的强大生命力,我们的理念符合人类文明,正义的理念、公正的理念、均等的理念,关键是我们如何实现这些理念的问题。所以大家看,第二次工业革命后技术发展所带来的很多难题是通过宪法解决的,包括1918年开始的一百年宪法。

   (四)第三次工业革命(战后):人的尊严与宪法对科技发展的响应

   第三次工业革命是大家最熟悉的,之后我们经历了世界大战,世界大战以后的世界开始进行深刻的反思,因为战争时用的所有武器都是科学家发明的,包括最后美国扔在日本的原子弹,虽然某种意义上有利于结束二战,但是给日本人民的生命带来了灾难,人类第一次看到原子弹多么厉害。原子弹是怎么发明的?是科学家发明的。科学家是怎么发明的?宪法给予了科学研究的自由,国家不是中立的立场,国家是支持科研的,战争时每个国家都希望有最先进的武器对付敌对国,用于战场,但是战场涉及到如何保护好平民,减少战争中的死亡人数的问题。所以无论战争有多大的正当性,人类的生命都是最宝贵的。第一次世界大战,战争中死亡的有一千多万人,由于贫困、饥荒死亡的有两千多万人。二战时失去了五千多万人,如果真有第三次世界大战或者第四次世界大战或者核武器战争,也可能一瞬间我们会失去几十万、几百万,甚至几个亿、几十亿人的生命,因为我们的武器(杀伤力)远远超过了二战时的武器,我们的武器是很先进的。我们开发武器,大规模地从事核武研发时追求的目的是什么?我们的科学家们是否反思过?当技术发明的人没有法治的理性,使用者也没有人类理性时,那么现今的武器会随意地剥夺(人的生命),或者说虽然他没有用所谓的武器,但这种武器给我们带来的很大的风险、安全的不确定性,也同样令人类恐惧。基于核武器本身的高度不安全性和不确定性,国际社会不得不有时候趋附于或者改变一些立场。所以未来会怎么样,是国际上很多宪法学者们都很担心的问题。我们建立了良好的宪法理论、宪法秩序,但在一个原子弹、一个核武器面前,宪法到底有没有控制核武的能力?在这个意义上,我们确实需要思考第四次工业革命是否是现在所说的这样一种所谓的恐惧。

   (五)第四次工业革命是否真的到来?

   这一次的革命跟第一次、第二次、第三次的工业革命不一样,它是完全以AI为核心的新的技术革命,它正在深刻地改变各国的政治、经济、社会、法律及所有的领域理念,我们就问它会颠覆人的主体性吗,它会破坏人们对未来生活的合理、稳定的预期吗?如何防范、规制和控制可能出现的风险?科学家们正在推动AI技术,希望无机生命有一天可以代替有机生命,要改写人类的历史,假设我们认为技术上是完全可能,但是如果这一天到来,人类的有机生命的结束,无机生命将会为人类文明带来什么?这些问题应该是我们需要思考的问题。

   各国政府在第四次工业革命中放弃了过去的一种中立的立场,积极、主动地引导推动,组织这样一种科技的开发和研究,将大量科研的经费用在技术的时候,我们就在想人类会不会出现我们所担心的技术非中立化、尊严的边缘化、人类生活的工具化及科技政策的庸俗化。按照宪法的价值,在技术没有达到确定性以前,哪怕有百分之一的风险的时候,政府是不应该放弃中立立场的,应该适当中立地看待问题。因为还有一些风险,包括转基因,到底能不能吃转基因,它的风险有多大,这个时候如果政府放弃了中立立场,说转基因是安全的,大家可以选择,可以吃,没问题。假如二十年、三十年后,出现健康的损害时,由谁承担责任?网络信息公司、科技产业,所谓的以私人企业或者以科技为闻名的一些产业,表面上是企业,但它实际上绑架了公权力。学术界,包括一些民众,在科技面前仍然是很脆弱的,我们这个时代充满着对科技的恐慌,法院、检察院也都在建设智慧法院、智慧检察院。

   那么,法学院的使命在哪里?未来法学院到底如何回应第四次工业革命,我们培养的学生未来在科技面前,有没有作用,未来律师是不是可以通过一般的AI技术、AI律师来代替?大概一个星期前,韩国第一次把AI律师投放到正式律师事务所,技术上我们看到一个统计数字,它大概是用一个小时能够解决过去大概七个人用三天时间完成的一般案件分类、案件归类的工作,其速度是非常快的。

   总之,科技发展历史和宪法发展历史存在着某种对应关系。没有宪法不可能有科学技术的发展,而没有科学技术的宪法,它也将失去动力。只有借助宪法,凝聚宪法共识,才能够让人类继续生活在自由、幸福而有尊严的生活中,确保人类永远主宰未来,不会由技术来主宰人类,让人类的生活更加安定,不再恐惧,不再焦虑,不再害怕未来怎么样。而如何确保这种趋势,避免出现相反的发展,这是在现代科技技术发展的背景下我们必须要思考的问题。

  

四、科技发展对人的尊严构成了何种挑战


   科技发展的正面积极作用我们要充分的肯定,四次工业革命客观上推动了人类的发展,是不可否认的,如果我们否认了三次工业革命包括正在进行的四次工业革命对人类发展的贡献,那我们是不客观的。但是另一方面,这种科技发展带来进步和人们生活的便利的同时,它也带来了对尊严的侵害和挑战,我们宪法学主要的功能是要看哪些挑战、哪些侵害。

   (一)人工智能技术问题

   人工智能是大家谈论最多的一个议题。它的最大的挑战就是人的主体性问题,人工智能会不会改变人的概念?人工智能会不会改变人的主体性?人的主体性在人工智能技术面前会什么样?是不是可以继续坚持?人的道德判断会不会被解构进而被否定?我们所坚持的自由、平等与民主等一系列基本价值在AI(人工智能)技术面前是不是会被削弱?我们这个时代充满着对科技的恐慌。很多法学院、学者都说人工智能、AI如何如何好。很多法院都说智慧法学院、智慧检察院,过了十年、二十年后法学院还需不需要呢?人工智能可以代替律师的工作、法官的工作、检察官的工作?在这样的潮流面前,法学院的存在意义在哪里?法学院的使命在哪里?未来法学院到底怎么样适应第四次工业革命?法学院的学生未来在AI技术发展面前还有没有作用?未来律师是不是可以通过一般的AI技术、AI律师来代替?

   可以说,一般性的重复工作,AI律师都可以做到。有些律师事务所已经开始减少录用律师的需求。美国现在很多律师事务所,一方面使用所谓的AI律师来完成一般的文书分类、案例的整理等工作,另一方面在印度找印度律师事务所,委托他们完成一般的法律服务,因为录用美国法学院的毕业生太贵了,而印度律师所就比较便宜。那么,律师行业未来是不是肯定会被AI律师所代替?显然,这是不可能的。因为大家都知道AI是技术,技术不可能创造思想,只是对已有知识的模仿,对已有知识的整理。在这点上,人类的主体性是任何技术都代替不了的,这是一个基本的判断。有人认为,智慧法院的一般案件可以让机器法官来做。但这是不可能,因为法院的判决一般是靠情感。机器人能判离婚案吗?它没有结过婚。民事案件当中有些法官为什么受欢迎,因为他根据夫妻两个在法庭上的表情,一个表情就知道这两个人感情是否破裂,是否还有感情,机器人是不可能这么判断的。所以我们要相信,科技的发展尽管很迅猛,但是机器人代替不了人类,从我们现在的认知来看这是不可能发生的事情。

   (二)隐私权问题

   人类的幸福生活是建立在隐私的基础上,隐私的意义不仅仅是个人信息不愿意让别人知道,而是关乎人的尊严,是人的尊严中最核心的内容。因为每个人都是独特性的存在,不能找到另外一个跟你一样的主体,即使是双胞胎也不例外,所以,人类的个性具有唯一性。人工智能的“人”则不同,它可以造一百个、一千个;类似地,克隆人也可以造成一千个、一万个。但是,人类的每个人都是独特性的存在,任何人都不能代替他的独特性。因此,在科技技术面前必须保持独特性的隐私价值,人格的自由发展要获得全面的保护。在这方面,现在科技技术带来的挑战是巨大的。人类确实是享受一些科技技术带来的便利,但另一方面在网络面前人类遇到一个强大的对手,因为个人信息的收集和存储、加工等等都存放在第三平台。个人有信息的自主权,但是个人的自主权在第三平台,在多方的主体面前个人是很脆弱的,所以人们要么坚持隐私权的价值,保持自身的独特性,要么放弃个体的独特性,那么到底选择什么?要选择便利性或者便捷性,那就减少了隐私和减损了隐私的价值体系。

   在前不久爆发的脸书(Facebook)泄密事件中,多达8000万脸书用户的个人信息在未经授权的情况下,被一家名为“剑桥分析公司”的数据分析企业用于设计软件,以预测并影响选民投票。英美媒体报道称,“剑桥分析公司”曾受雇于美国总统特朗普的竞选团队和英国“脱欧”全民公投的“脱欧”阵营。这是脸书创建以来最大的用户数据泄露事件之一,扎克伯格也因此在美国国会接受质询,将近八十多个议员用六个小时对扎克伯格进行了质问。“脸书”的安全性到底怎么样,为什么把信息给别人?剑桥分析公司做了一个改变选民的想法的软件设计,真的是改变一个国家选举的成果,用它来干预政治会带来什么样的问题?“脸书”事件让我们看到,人类选择技术的时候是充满风险的。假如最后的调查结果表明剑桥公司确实通过这样获得的信息改变了美国选民的政治倾向,使得本不应该当选的特朗普当选美国总统,那么,今后各国都会去认真考虑技术对于民主选举的影响。以往对于金钱的影响,各国有了比较成熟的规制手段。但是科技对选举的控制,还没有引起足够的重视。比如辽宁、衡阳贿选案的行贿人,如果掌握了这门技术,那么他们就不用再去行贿,完全可以通过技术去影响选举结果。这样的话,人类几百年来建立的政治民主、民主的基本价值都会在技术面前丢失。此时,我们靠什么来维护文明与法治秩序,这就是“脸书”事件给我们带来的最大思考。

扎克伯格的口才很好,他的解释得到了部分民众的支持。在他的逻辑里,技术本身有一定的安全度,而当你选择信息沟通的便利,愿意加入脸书,选择使用手机时,你是在行使自己的自我决定权,你就应做好泄漏隐私的准备。人们选择某一个技术时,已经自我减损或者自我限制了自己的隐私权。二十多亿用户的个人信息,不可能依靠一个公司来保障,当公司做好了信息安全的保护措施,但仍然出现了信息泄露的时候,不能简单认为是对用户个人隐私的侵犯。言外之意是,用手机技术时你已经做好了你的隐私不是很重要的准备,发微博的时候应该也做了这样一个准备,发邮件时你也做了一个准备。问题还是回到,要隐私的保护还是要技术的便捷?这是否是宪法上所讲的自我决定权?(点击此处阅读下一页)

本文责编:陈冬冬
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/113706.html
收藏