内容
(一)过错与因果关系证明困难
人工智能系统的自主性导致难以判断系统研发者、提供者、应用者等相关主体是否具有过错。以深度学习算法为代表的人工智能系统具有自我学习与进化能力,侵权行为难以归责于某个预先存在的错误。人工智能活动的网络性导致难以确定行为与损害之间是否存在因果关系。人工智能输出结果是由算法、数据、人机交互等多种因素共同作用造成的,一旦损害发生,往往难以确定是何种因素决定性地导致损害。
产品责任路径并不能有效缓解原告的过错与因果关系的证明压力。一方面,产品责任并未减轻被侵权人对因果关系的证明责任。另一方面,虽然产品责任以“缺陷”替代“过错”,但“缺陷”的认定同样具有过错色彩。无论是“消费者合理期待”还是“风险—效益测试”判断标准,均涉及对生产者注意义务的判断,与认定行为人是否具有过错本质相同。
(二)新型损害体系归入障碍
人工智能侵权所引发的新型损害主要包括基于数据处理产生的歧视、操纵以及人工智能活动造成的数据毁损或污染。二者均难以被认定为传统侵权法上的损害:被侵权人通常未遭受现实的财产减少,难以被认定为遭受物质性损害;若未达到“严重”的精神损害也难以构成非物质性损害。而产品责任路径并未为救济新型损害扫清障碍:第一,产品责任并非针对歧视等不利益而设,关注的重点仍在于人身损害与财产安全。第二,由于数据能否成为财产权的客体仍未明确,适用产品责任仍难摆脱数据损害认定困境。
(三)责任承担主体难以确定
人工智能活动复杂,涉及众多主体,其产业链条中任一处出现纰漏都可能致损。被侵权人无法确定是人工智能系统自身设计出现问题,还是后续的使用行为导致损害,因而无法确定真正的责任人。《民法典》将产品责任主体限定为生产者与销售者,缓解产业链较长带来的责任主体较多的问题,但与人工智能产品非线性、网络性结构的特点并不适配。消费者可以自行拆分、组合人工智能产品,这导致对人工智能产品的控制力从终端生产者部分转移至消费者,由生产者对损害承担无过错责任未必妥适。欧盟《缺陷产品责任指令》在无过错责任的基础上扩张了责任主体,导致原本产品责任限定责任主体、减轻消费者负担的制度设计落空。简单罗列可能的责任主体并要求其对损害承担连带责任,未必合理。
(一)过错责任下的信息披露义务
首先,认定人工智能侵权应适用过错责任。第一,人工智能活动引发的集合意义上的抽象风险未必属于民法上的具体、现实的危险,不应统一适用危险责任。第二,人工智能控制者的控制力有限,无过错责任未必能对其形成有效激励,反而促使责任主体分散事故成本,降低社会总体福利。第三,过错责任能全面评价民事行为,激励相关主体采取措施防止损害发生。第四,过错推定责任会使中小企业陷入责任困境,在人工智能发展初期不宜采用。第五,保险制度因缺乏有效数据等问题,在人工智能发展初期难充分发挥作用。
其次,设计专门的信息披露规则来化解过错证明难题。未来人工智能法应规定特定条件下的证据开示规则:允许相对人在特定条件下提出申请,由法院裁定发出书证提出命令,要求相关主体提供活动记录,如果义务人拒不提供则推定其具有过错。证据开示规则适用的特定条件包括:原告申请公开的是法律要求被申请人记录保存的信息;原告提出合理事实和证据证明“合理怀疑”;原告已尽努力仍无法获足够证据。
(二)精神损害赔偿范围拓展
把新型损害归入物质性损害存在理论上的困境。无论采取差额说还是客观损害说等损害赔偿学说,数据滥用或破坏情况都难以被证明存在物质性损害。数据之上承载的民事权益受到侵犯也不能同时被认定存在损害。与其扩张物质性损害的边界,不若摒弃精神损害赔偿认定的严重性标准,适当扩张精神赔偿的范围,便利被侵权人提起精神损害赔偿之诉。新的认定标准关键不在于精神损害是否严重,而在于精神损害是否足够显著能获得社会一般人的认同,结合数据的典型意义进行判断。同时,精神损害赔偿也不应限定在行为人具有故意或重大过失的条件下。
(三)消费者保护目标下的因果关系推定
人工智能活动的网络性使被侵权人举证难以达到高度盖然性标准。而完全的举证责任倒置虽能救济被侵权人,却会带来增加企业法律成本、导致滥诉等负面经济影响,长期不利于消费者整体福利。妥适的方式是将举证责任倒置限定在企业与消费者之间的侵权纠纷,而对于企业之间或个人之间的纠纷,仍应适用“谁主张谁举证”的经典证明责任规则。在适用因果关系推定规则时,原告至少应证明被告行为与己方损害之间存在一定程度的关联性,如存在同批次产品造成损害的报道或并不存在其他异常因素等。
因人工智能的特性,真正侵权人可能隐匿在复杂活动链条中。旨在解决无法查清侵权人的共同危险责任规则不适用于人工智能侵权责任源头不清的情形。共同危险责任要求行为人都实施了义务违反行为,行为人均具可谴责性。但在人工智能应用中,参与方行为未必都有可谴责性,若无法确定参与方均违反义务,不应适用共同危险责任。
(一)同一商业技术单元连带责任规则
侵权法可依据特定利益结合状态要求相关主体承担责任,如雇主责任、监护人责任。当企业通过合同等结合,有共同商业利益与技术基础时,在责任源头不清的情况下,要求构成同一商业技术单元的参与者对损害承担连带责任具有合理性。
多个主体因合同组成商业技术单元,被侵权人虽无法确定单元内具体故障环节,但可以证明是该单元造成损害时,该单元成员就应承担连带赔偿责任。为了共同的商业目的主动结合的市场主体可以通过合同或类似方式控制风险,并提前就事故成本的分配达成一致。借助同一商业技术单元这一概念,既可以防止责任漫无边际,又能有效解决无法查清责任源头时的责任分配问题。
(二)同一商业技术单元成员的认定标准
合作紧密的企业可通过较低的交易成本预先达成内部责任分担机制,但合作不密切的企业之间无法通过合同或其他方式协调责任分担。要求此类企业承担连带责任遭受抵触的可能性就较大,对市场产生负面影响。
因此,判断企业是否属于应承担连带责任的同一商业技术单元,本质应是判断企业间的结合是否紧密,内部交易成本是否足够低,可否事先形成一套责任分担方案。应结合是否存在持续性的合同或类似协议、是否存在商业与技术依存关系、商业经营策略、技术相互依赖与互操作程度以及排他性与否等因素衡量企业间的交易成本。
对于在同一商业技术单元中可能存在强势主体,内部的损害分担协议未必公平的问题。一方面,这并非智能系统特有的新问题;另一方面,可以结合《民法典》中的格式条款规则等相关规范进行审查,防止强势企业不合理地压榨弱势企业。
面对人工智能应用挑战,将产品责任扩张至人工智能系统,无法有效解决其应用引发的过错与因果关系证明难、新型损害归类难及责任主体不清等问题。我国未来人工智能立法应在维护体系一致性前提下,通过信息披露、损害与因果关系认定及特殊多数人侵权等规则,减轻被侵权人在责任成立与承担方面的举证压力。
(本文文字编辑龚欣雨。本文未经原文作者审核。本文为中国民商法律网“原创标识”作品。凡未在“中国民商法律网”微信公众号正式发布的文章,一律不得转载。)
文献链接:《论人工智能致损的特殊侵权规则》