返回上一页 文章阅读 登录

石佳友:人格权立法完善的最后契机

更新时间:2020-01-16 08:52:55
作者: 石佳友  
此类判决十分不利于文艺创作、科学研究等领域的正常批评与监督;建议本条修改如下:

   “行为人发表的文学、艺术作品以真人真事或者特定人为描述对象,不承担民事责任,但包含有不必要的贬损、侮辱内容的除外”。

  

   生活安宁权的立法体例存在问题

   现有草案第1032条第二款:“隐私是自然人的私人生活安宁和不愿为他人知晓的私密空间、私密活动、私密信息”;较之于此前的草案,本条的最大变化是突出了对生活安宁的保护,将其与私密空间、私密活动、私密信息并列。毋庸置疑,对生活安宁的保护是隐私权的重要内容;但值得探讨的是,它与私密空间、私密活动、私密信息之间形成并列关系,逻辑上是否妥当?就此而言,一方面,从比较法的经验来看,所谓安宁权(right to be let alone)其实可以被“私密空间”这一范畴所涵盖,因为私密空间既指物理空间,也指心理空间(譬如,心灵里的“秘密花园”);因此,“私人生活安宁”属于“私密空间”的下位概念,二者之间是包含关系而不能并列。另一方面,单独将“私人生活安宁”与具有私密性特征的后三者并列,意味着此处的“私人生活安宁”不需要以私密性作为特征;那么,将其纳入隐私权的保护框架之下,其妥当性就值得商榷。因为,如果按照这样的逻辑,相邻不动产中邻人的噪音污染,侵害了房主的生活安宁,就都可以依据本条主张隐私权保护,而毋需适用相邻关系制度;这显然不当扩张了隐私权的范围。

   因此,针对本条的修订建议是:将侵扰私人生活安宁内容插入第1033条(侵犯隐私权的手段)第五款之后。

  

   法条竞合现象应当避免

   现有草案第1034条第三款规定:“个人信息中的私密信息,同时适用隐私权保护的有关规定”。这就造成的人为的法条竞合现象,导致同一法律事实将同时适用数个不同的法律制度。从立法技术的角度来说,法条竞合通常都是立法者应竭力避免的“噩梦”,因为这将给法律适用造成极大的困惑:就本条而言,对于私密信息(立法者可能希冀用其指代“敏感信息”,当然二者的涵义仍然存在较大差异,因为私密信息仍然可能在一定私密范围内为人所知悉;另外,私密信息也并不必然与特定个人的身份相联系),如何“同时适用”隐私权保护条文?是由当事人自主选择(类似于责任竞合模式),还是法官依职权适用?从法律后果来看,个人信息保护的手段往往是更正、删除或采取安全措施等,而隐私权的保护手段往往是停止侵害、销毁即将发行的侵权作品等,显然,二者难以“同时适用”。而更为重要的是,个人信息保护是以允许收集处理为原则,而隐私尤其是本条针对的“私密信息”的原则显然是禁止他人的刺探和泄漏;二者的价值导向正好是相反和相互冲突的,不可能“同时适用”。草案“同时适用”的措辞可能会发出完全错误的导向:允许对他人私密信息进行收集和处理!

   因此,建议删除本款规定。

   还值得指出的是,本编还存在其他的“法条竞合”条款,例如第1030条(“民事主体与征信机构等信用信息收集者、控制者之间的关系,适用本编有关个人信息保护的规定和其他法律、行政法规的有关规定”),此类条款同样应当删除或迁移至竞合的相关条文所属章节(譬如,第1030条信用权条款应迁移至“个人信息保护”之下,因其本质上仍然属于个人信息的收集与处理问题)。

  

   应针对算法歧视作出规定

   在今天,大数据和算法的广泛应用,造就了大数据“杀熟”、搜索引擎操纵搜索结果、智能APP精准推送等极为普遍的日常现象;消费者的个人信息每天都在被随意收集、共享和滥用;智能APP越来越广泛地借助于网络画像(digital profiling)技术,根据消费者的消费习惯、支付能力来系统性地推行价格歧视战略。另外,人工智能技术的应用由于立足于人类世界的经验法则,可能会不断重复甚至强化现实世界中的一些偏见与歧视;因此,在有些情况下,算法运行以“科学”的名义得出的某些结果,其实往往只是印证了人类世界既存的某些偏见:说到底,算法可以具有某种“知性(理解力)”,但智能并不能赋予机器人以“理性”。因此,产业巨头不遗余力地鼓吹“技术中立”,其实是为了掩盖算法背后所带有的歧视;而消费者过度依赖或迷信算法决策则可能导致很多论者所担忧的“算法统治”。

   为有效保护信息主体的权利及其人格的自由发展,建议在第1035条中增加第三款:“个人信息的处理应遵循透明、公正和非歧视原则”。

  

  


爱思想关键词小程序
本文责编:陈冬冬
发信站:爱思想(http://m.aisixiang.com)
本文链接:http://m.aisixiang.com/data/119849.html
文章来源:中国法律评论
收藏