曹博:如何规制算法歧视?
2021年10月11日      ( 正文字号: )
文章标签:公民基本权利   互联网   算法
[ 导语 ]
       不同概念语境下对算法歧视的探讨明晰了其基本内涵与进行法律规制的正当性和必要性,对算法歧视规制路径的具体化研究则有待进一步深化。以追寻算法歧视的根源为起点,考察算法决策的形成过程,将发现其与传统决策存在高度趋同的特质。对此,上海交通大学凯原法学院的曹博副教授在《算法歧视的类型界分与规制范式重构》一文中,从算法和歧视的关系入手,明确算法歧视的表现形式并对其进行类型化整合,在分析规制歧视的传统范式及其缺陷的基础上,重构更具针对性的规制范式。
一、算法歧视的概念语境

算法歧视的探讨主要集中于以下三种语境,论证重点有所差异。第一,算法社会语境下的算法歧视。论者的关注焦点深入对人的智性发展进行遏制的可能路径,算法歧视或是遮蔽在这种叙事之中,或是仅作为规制算法或算法权力必要性的论据出现,相关细节问题没有进一步展开。第二,技术限定下的算法歧视。这一方面说明前述技术在实践中高度交叉、难以进行有效区分,另一方表明施加这些技术限定对算法歧视的讨论并无助益,或许仅能起到彰显所涉论题前沿性的效果。第三,特定领域中的算法歧视。这对解决特定领域的法律适用问题具有现实价值,但部门法经验存在局限性,能否扩展到其他算法歧视问题不无疑问;还有一些探讨最终走向了对算法歧视普遍特点的一般化讨论,使得这种限定仅具有形式意义。

二、算法歧视的根源探寻

在输入——分析——输出的三环节流程中,算法设计者在编程时可能有意或无意将自身偏见、社会风气、制度体制以及文化差异嵌入算法之中,难以消除的既存偏见导致数据输入和算法设计中的偏见无法避免;范畴化导致的结果是范畴内部的相似性和范畴之间的差异性被夸大,因此算法决策的类型化思维形成的聚类和分类模式是一种有利于偏见生成的模型;而算法运行的准自主化趋势意味着算法在自主学习过程中建立了何种认知无从预测,这又进一步将偏见内化为算法的随机表达。

上述问题在人类决策中也普遍存在,算法歧视形成的根源与传统歧视具有高度同质性,故传统歧视的规制范式应在一定程度上具有类比与借鉴的价值。因此,有必要对算法歧视与传统歧视进行比对,检视算法决策与传统歧视之间究竟呈现出哪些关系,实现对算法歧视的类型化整合。

三、算法歧视的类型界分

和传统决策相比,算法减少歧视或消除歧视具有积极价值,应将其排除在算法歧视的范畴之外。复现型算法歧视包含将原本存在的偏见显露于外的复制歧视和表面隐藏偏见实则造成歧视的代理歧视,算法应用通常与网络环境高度匹配,这使得歧视性对待容易扩张且难以觉察。加剧型算法歧视是指使原有的歧视更为严重的加剧歧视,在互联网平台化运营的背景下,用户数据向大型网络平台集中,平台经营范围的扩张与数据的跨平台流通使得加剧型算法歧视产生的负面影响有进一步扩张的风险。新增型算法歧视是指在决策过程中出现了新的偏见的新增歧视,算法开发者与使用者往往无法对其结果进行预测。

四、规制歧视的传统范式及其缺陷

对传统歧视的规制往往从内部规制和外部规制两个层面展开。内部规制是通过利益评价的民主立法范式,防止出现歧视性对待的制度设计。外部规制是基于权利义务的法律责任范式,在个案中实现对歧视结果的法律责任评判。

但是,一方面,算法运行的“黑箱化”与内部规制存在冲突。行政机关与商业机构普遍采用的算法决策已在很大程度上发挥了类似于法律的效果,“代码即法律”成为现实。学界提出通过“算法解释权”与“算法透明”实现对算法的内部规制,然而,以机器学习准自主化趋势为例便可知这在技术层面不可行,算法与个人信息、商业秘密和国家安全的诸多关联使其在法律层面也存在障碍。另一方面,算法逻辑的相关性本质与外部规制存在矛盾。如果以侵权责任的确定为原型,歧视性结果对应着损害后果,算法决策对应着行为,但算法逻辑的相关性本质决定了确定后果和行为之间的因果关系非常困难。

五、重塑算法歧视的规制范式

(一)复现型算法歧视的规制

复现型算法歧视的实现方式有两种:一是直接将原有的偏见与歧视的因果联系转化到算法中;二是使用替代性变量替换传统决策因果链条中作为原因而存在的偏见。规制直接复现型算法歧视重在发现歧视效应。网络时代个体对算法决策的被动接纳已成常态,在未触及切身利益的情况下,即使察觉可能的歧视性对待,通常也会选择容忍。由此,引入算法歧视的社会监督具有必要性,设定监管机构受理针对算法歧视的公众投诉、允许和鼓励社会公益组织针对算法歧视提起公益诉讼值得尝试。《网络安全法》第8条规定国家网信部门负责统筹协调网络安全工作和相关监督管理工作,在未来不妨由其作为受理投诉算法歧视的行政机构。

规制间接复现型算法歧视重在探明替代变量。立法已关注到这一问题,《电子商务法》第18条隐含了防止个人特征作为替代性变量进入算法程序之中实现歧视对待的功能,《个人信息保护法(草案第二次审议稿)》也强调可能导致个人受到歧视是界定敏感个人信息的标准之一,通过自动化决策方式进行商业营销、信息推送,应同时提供不针对其个人特征的选项。

(二)加剧型算法歧视的规制

加剧型算法歧视体现为平台内的加剧和平台间的加剧。规制平台内加剧型算法歧视重在制衡平台算法权力。面对强大的平台,个人用户以及使用网络平台进行交易的商家对算法决策的适用结果缺乏有力的对抗手段,只能寄希望于对平台算法权力的一体制衡。目前我国采取的一些措施将有力制衡平台权力,但具体到算法歧视问题,在行政处罚等规制手段之外还需考量平台算法权力监管如何具体化的问题。

规制平台间加剧型算法歧视重在对抗平台间、平台与政府的合谋。平台间进一步开展数据流通与共享后,算法歧视在平台间的扩张也难以避免。政府与企业之间,基于加强网络监管与获得监管优待的利益交换使二者进行深度合作的可能性越来越高,此种合谋在公共管理方面具有积极意义,但也有可能产生普遍的歧视性结果。因此,一方面要为个人保留算法决策之外的选择权,另一方面要对跨平台的算法应用施加更严格的监管。

(三)新增型算法歧视的规制

有监督的算法意味着设计者和运营者能够控制决策系统的学习方向和预期结果,无监督的算法则无法预设和控制其输出结果。规制有监督模式下的新增型算法歧视重在评估算法影响。建立恰当的风险评估机制是一种较为理性的选择,需要监管机构和第三方协同努力,借助多学科的专家力量,不断优化监督效能,强化设计者和运营者对算法决策的控制力。

    规制无监督模式下的新增型算法歧视重在限制算法应用。在技术水平尚不足以实现对这种算法进行有力干预的前提下,只能对应用范围做严格限制,可以考虑将其限定于科学研究与电子游戏等不影响人类现实活动的领域。此外,即使设定了这种限制,仍然难以避免在现实中出现应用机器学习算法并产生歧视性对待的结果,因此有必要设定针对算法设计者与使用者的无过错责任或过错推定责任,使受到歧视性对待的算法决策相对人获得救济。通过侵权法上更为苛刻的注意义务设定,也能倒逼算法设计者对算法技术进行改进与优化。

六、结语

进入大数据时代,算法权力的兴起已是不争的事实,对个人生活越来越具备“构成性地位”,对抗算法权力也成为应对算法歧视并在算法社会中争取公平对待的核心问题。对算法歧视进行类型化整合,针对复现型算法歧视、加剧型算法歧视和新增型算法歧视确定各自的规制重点,实现对算法歧视规制范式的重构,本质上仍是从不同侧面为制衡算法权力提供更多可能路径,以期进一步探究算法背后的人性基础和制度目标。



(本文文字编辑萨日娜。本文未经原文作者审核。本文为中国民商法律网“原创标识”作品。凡未在“中国民商法律网”微信公众号正式发布的文章,一律不得转载。)



文献链接:《算法歧视的类型界分与规制范式重构

[ 参考文献 ]

本文选编自曹博:《算法歧视的类型界分与规制范式重构》,载《现代法学》2021第4期。
【作者简介】曹博,上海交通大学凯原法学院副教授。

推荐阅读
丁晓东:互联网反不正当竞争的法理思考与制度重构
应当尽量避免直接认定竞争手段本身非法,而以企业的合同性权益或财产性权益受到侵害、消费者是否受到侵害为判断标准。
谢鸿飞:《民法典》实质担保观的规则适用与冲突化解
形式担保观和实质担保观在法律构造和法律效果上多有差异,但体系化地适用物权编和合同编的规范可缩小两者的差异。
姚明斌:《民法典》违约金规范的体系性发展
本文分析了《民法典》违约金规范中酌减规则的裁量特点和违约金约定的性质,分析了相关法律规则之间的关系。
热门排行
学术公告
问答集锦
相关文章
本期评价
0个赞
0个踩
敬请关注中国法学会民法典编纂项目领导小组组织撰写的《中华人民共和国民法典•民法总则专家建议稿(征求意见稿)》

编辑:萨日娜

向编辑提问:

分享

扫二维码
用手机看民商
用微信扫描
还可以分享至
好友和朋友圈

中国民法学研究会
教育部人文社会科学重点研究基地
中国人民大学民商事法律科学研究中心

本网站由王利明教授创办并提供全部运作资金 Copyright◎2000-2021 All Rights Reserved  
E-mail: ccclarticles@126.com