(一)算法妨害:基于风险或过程的抽象性侵害
算法妨害包括大数据风险评估对个人进行风险群体归类而带来的声誉侵害、对风险个体进行差别化对待而造成歧视、压制或改变人们的数字行为轨迹而影响数字行动自由、利用算法操纵人们做出不利选择、缺乏透明性及正当程序等。
(二)算法损害:基于结果的具体侵害
算法自动决策不仅导致过程性的、抽象性的算法妨害,也可能造成对传统部门法既定权益的直接侵害,但基于机器学习算法的复杂性、不透明性、开放性与迭代性技术特征,损害的确定、因果追溯与归责更加复杂。
算法妨害不存在具体的损害后果,不产生结果归责问题,可将算法妨害行为规定为侵权法或刑法中的行为构成要件并配置责任;算法损害则需要解决结果归责问题,即将结果归属于哪一个行为人或行为。倘将算法自动决策视为一个行为整体,则可将其划分为行为过程及行为结果:抽象的算法妨害属于行为端,具体的算法损害属于结果端。
(一)源头数据规制路径/个人赋权制衡的规制路径之不足
我国《个人信息保护法》第5—8条规定了合法、正当、必要、诚信、明确、合理、最小化、公开透明等原则,第四章规定个人对关于其个人信息的处理享有知情权与决定权、查阅复制权、可携带权、更正补充权、删除权、解释说明权等,在算法规制方面采数据源头规制与数据赋权思路,但这些方案在算法规制方面存在先天缺陷,逐渐凸显不足。
第一,《个人信息保护法》仅适用于利用个人数据的算法自动决策,若算法系统处理的数据是无法直接或间接识别到个人的非个人数据,就无法为上述立法所覆盖,存在法律漏洞。可见,通过个人赋权的个人主义路径过分聚焦于具体的针对个人的算法侵害,对抽象的、集体的算法侵害未予关注。第二,个人赋权模式作为基于个人信息控制权理论构建的应对方案,在算法应用场景存在逻辑悖论,也面临权利行使困境。鉴于机器学习算法的动态性、自主性、迭代性,很难期待缺乏专业知识的个人主张上述数字权利抵御算法侵害。并且在我国涉及用户画像或其他自动化决策所带来的不利影响的案例中,法院并未支持当事人请求。
(二)算法程序性规制方案及其缺陷
算法决策的不透明性和缺乏监督给个人正当程序权利带来冲击,故以技术正当程序概念为中心对算法本身的程序性规制与监管方案日益获得关注。包括算法公开、算法可解释性制度、算法审计与算法影响评估制度等,这些程序性制度工具试图建构一种程序性保障措施,以便预防性地将算法决策纳入一个问责性框架,但存在以下局限性。一是算法公开、算法可解释性等事前规制本身不仅存在侵犯知识产权、引发算计、成本大于收益等缺陷,且因算法黑箱难题受到技术可行性的制约,某些算法程序性权利的实现也缺乏技术支持;二是算法程序性控制方案仅能在宏观抽象层面降低整体算法侵害的频度、深度与广度,无法在具象微观层面针对具体算法侵害精准施策,提供个案正义意义上的预防与救济。
(一)复杂AI生态与多元参与主体
人工智能涉及复杂的技术生态,随着数据在不同技术主体间流动,责任也具有流动性、模糊性,产生具体错误结果时难以查明和界定是哪个主体有过错。对此,传统责任方案在算法决策领域的适用均体现一定的局限性。其一,算法决策各行为人之间往往不存在明确的意思联络。即使承认过失共同侵权或共同过失犯罪,但算法决策作为各技术主体参与的一系列大数据收集、分析与归类的行为,主观方面认定存在较大难度。其二,现阶段人工智能独立责任观点面临意志自由与责任资格证立、责任承担等理论及实践难题,即使对责任概念采取规范的、功能性的理解而将人工智能体视为责任主体,也难以发挥责任的预防功能。
(二)算法黑箱与因果关系难题
算法黑箱、算法侵害的因果进程冗长、复杂、不透明带来因果关系认定与解释难题。算法挖掘事物间的相关性联系而非因果性联系,故利用传统的人类认知论中的因果关系概念对依赖大数据相关性运作的算法决策及其侵害进行归责仿佛缘木求鱼。透明性要求或许有助于找出 AI 的不合法行为、瑕疵设计或者不道德的算法,但可能这些并不足以向普通用户解释具体的决策是如何作出的。
基于法教义学的因果关系原理,可对上述难题进行如下思考。一是大多数情况下因果关系认定虽都以因果律为基础,但在新型损害结果原因无法被科学验证或解释时,只要大致能排除其他因素导致损害,也可以认定存在概括性的因果关系。二是肯定传统责任理论的因果关系概念对于算法侵害归责的适用性,也需正视算法可追溯性难题带来的因果关系认定障碍。解决之道有二:一是可适用过错责任推定,缓解技术性归责障碍带来的责任真空与受害人救济问题;二是舍弃因果关系要件设定针对违法行为本身的责任,跳过因果联结及可追溯性难题。
(三)故意或过失难题
算法决策是由多元技术主体参与的一系列大数据收集、分析与归类的行为,各参与
主体在某个行为阶段具有何种主观方面往往难以认定。与人所实施的歧视性对待行为不同,大数据挖掘与机器学习算法的歧视性影响往往不存在明显的歧视意图。以违反注意义务为中心的过失认定在算法决策中也非易事,因为人工智能新兴科技领域算法应用往往还未形成实定法或司法判例上的注意义务标准。但严格责任原则不要求行为人的主观过错,仅要求证明损害的因果关系。关于严格责任的实定法规定与判例,无疑提供了应对算法风险及解决侵害归责问题的有益思路
(四)自主性与失控
人工智能具有自主学习、自主决策与执行决策的能力,但也带来不可预测性与人类控制性减弱甚至失控问题。人类的有限参与极大弱化甚至架空了人类对算法决策过程的控制,但控制与支配是法律责任理论的一个逻辑基点:人类对行为承担责任的根据在于对该行为具有一定程度的控制。但从机器学习算法技术原理上来看,算法黑箱存在程度区别。一些算法模型、参数或输入数据权重的算法难以被人类理解或控制,即所谓“强黑箱算法”;一些算法具有简单的线性算法模型,或虽复杂,但其模型、参数或输入数据权重仍能够为人类所理解,即所谓“弱黑箱算法”。对
“弱黑箱算法”,适用过错或过错推定责任,但为应对过高的因果关系与主观过错查明成本,在无法查明行为人过错时可例外适用严格责任;对“强黑箱算法”,则应当跳脱因果支配思维,寻找一种恰当的责任模式解决算法侵害责任问题。
(一)传统过错责任原则及过错推定原则
鉴于算法并非客观中立,若能证明算法设计者、应用者在上述过程中具有引起算法侵害的故意或过失,传统教义学中的过错责任原则就不应因涉及算法而有所区别。此外,鉴于因果关系证明的困难及算法设计、应用者的信息与技术优势地位,可以适用过错推定原则,要求具有信息或技术优势地位的算法设计者、应用者证明其输入行为或数据对损害不具有因果关系,否则推定这种因果关系存在。
(二)责任框架的扩展与调适
首先,在各行为人之间不存在或无法证明侵害意思 沟通而无法适用共同侵权或共同犯罪责任时,以及各技术参与主体之间不具有组织一体性而无法追求法人责任时,创立新的集合责任形式,将数据生产链上的所有行为主体视为具有技术上的一体性,或将提供某种算法应用而获取商业利益的人视为具有商业上的一体性,要求他们承担集合式的责任。这种集合式的责任可以是故意或过失形式,一般而言应以侵权责任为主,可要求各技术参与主体承担连带赔偿责任。基于刑法的最后手段性与法益保护辅助性原则,仅在可能造成严重的算法损害时,才比照法人责任设立相应的技术或商业单位刑事责任。
其次,鉴于算法决策中主观过错认定与结果归责难题,可将产品责任、环境污染责任、高度危险责任以及饲养动物损害责任领域的严格责任或危险责任扩展至人工智能或算法侵害领域。再次,对于强黑箱算法造成具体法益或权利损害的具体算法损害,借鉴德国刑法教义学中的义务犯理论与私法上的信息信义与公共义务理论,要求设计、应用算法的大型平台或智能产品的生产商、运营商对算法侵害风险承担损害防止义务或对用户承担保护义务,即使不能对算法决策施加完全的支配或控制,但仍应在认识到风险可能现实化时承担损害防止的责任。但鉴于义务性责任缺乏对结果的控制与支配,因而应配置更轻的责任。
最后,针对算法标签、算法操纵等抽象算法妨害的责任设定不以风险的现实化为前提,将其规定为行政违法行为,或类似于公共妨害的侵权行为,追究算法设计者或应用者行政责任或侵权责任。在大型平台或公共机构大规模实施上述行为可能造成广泛、严重的算法侵害时,甚至可将其规定为抽象危险犯,追究刑事责任。
算法新兴技术特征带来的归责难题并未宣告人工智能法律责任的死亡,应检验传统责任理论在人工智能算法场景中的适用性与拓展可能性,根据算法技术特征构建一个层级式的人工智能算法责任框架,积极发挥责任制度损害补偿与预防的功能,形成应对算法侵害事前规制与事后规制的完整闭环:对产生具体侵害结果的算法损害归责而言,分别设置因果支配型的责任与非因果支配型的义务型责任。对算法妨害而言,设置相应行政违法行为,或设置类似侵权法的公共妨害甚或刑法上的抽象危险犯进行追责。
(本文文字编辑唐子航。本文未经原文作者审核。本文为中国民商法律网“原创标识”作品。凡未在“中国民商法律网”微信公众号正式发布的文章,一律不得转载。)
文献链接:《算法侵害责任框架刍议》