内容
丁晓东教授在《从网络、个人信息到人工智能:数字时代的侵权法转型》一文中指出,随着工业化时代的到来,侵权行为也从传统的一对一变成了大规模微型侵权、大规模汇聚型侵权以及大规模治理型侵权,因此侵权法也从纯粹私法功能迈向了兼具公法治理功能。首先,从传统的主观过错与因果关系判断,转向更加注重责任分配。其次,侵权法的目标应从单纯的损害填补转向合理威慑。最后,侵权法应注重从个体救济转向关注群体福利的保护。
就网络平台侵权而言,其过错认定和知情状态的判断应基于其是否履行了大规模治理层面的合理注意义务来判断过错。在因果关系和责任认定上,网络平台的责任不应基于个案中的因果关系,而应评估平台是否履行了治理义务。平台应根据不同情形采取不同措施。
就个人信息侵权而言,个人信息侵权可以分为两类: 一类是未造成实际损害的个人信息权利之诉,另一类是已造成损害的个人信息侵害之诉。对于没有造成实际损害的个人信息权利之诉,应将其视为含有申诉举报性质的诉讼。个人信息侵权损害之诉以及个人信息侵权损害之诉的过错判断、因果关系、救济措施也应进行优化设计。
就人工智能侵权而言,对于生成式人工智能造成的侵权,可类比出版商、搜索引擎与平台的侵权责任。决策服务型人工智能可以参考企业顾问或政府顾问的侵权责任。产品构成类人工智能由于与硬件深度融合,风险更大,可能直接危及人身安全,应首先对这类嵌入人工智能的终端产品设定风险基准与市场准入门槛。
文章在最后详细指出,外部批评和内部批评可为行政法与侵权法的互动、侵权法的多维视角提供启示,但并非否定侵权法的现代转型。
(一)数据产权
申卫星教授在《数据产权的力度和限度》一文中从数据确权的价值出发,充分认识数据产权制度的力度,明确数据产权的限度,消除数据赋权可能带来的“数据壁垒”等反公地悲剧现象。确权说贯彻“有贡献即有回报”之理念,在保护层面上,数据确权模式对当事人法律地位的安排更具层次性,对当事人法律地位的保护更具确定性和前瞻性,其不仅局限于消极保护更在于降低交易成本和竞争成本,提供激励机制,盘活数字经济,促进积极利用,形成有效市场规则,在意思自治基础上实现数据要素市场化最优配置。
初次分配给数据来源者具有一定的正当性。文章对反对观点进行了反驳:对数据来源者贡献不足的批判混淆了数据来源者和信息来源者的概念差异;赋权会导致权利分配成本过高、损害流通效率的观点,既忽视数据来源者参与数据价值交换的期望和能力也夸大数据来源者参与价值交换的成本。赋权的负外部性问题是数据共创性带来的必然结果。同时,从《数据二十条》的政策意涵也可看出其旨在突出数据来源者权利的财产特征。
数据来源者权的二阶构造:数据来源者仅对其促成生成的原始数据具有贡献。数据来源者权应当成立一个对数权与对人权的二阶构造。 其中,第一阶权利是手段性的权利包括获取权和复制转移权,第二阶权利是结果性权利,即数据来源者对物所享有的支配的权利。
数据处理者的三权分置为数据持有权、数据使用权和数据经营权。同属财产权的数据产权,其行使和效力也需遵循权利不得滥用原则,在不得存在垄断行为或不正当竞争行为外,还受公共利益和中小微企业经营利益制约,并通过合理使用、法定许可、强制缔约等制度具体构建数据产权的限制规范。
(二)算法透明机制
戴维博士研究生和王锡锌教授在《算法透明机制的局限性及其克服》一文中指出,基于“看透”和“解释”逻辑,算法透明形成了包含事前技术披露和事后说明理由的双线模式。我国两版人工智能立法建议稿都将透明原则作为一项基本原则。然而,与算法透明的理论预期相比,立法设置的透明标准并不高。首先,立法并不要求公众“看透”算法。其次,立法并未为算法解释权的行使提供充分的制度保障。算法可解释并不等同于算法可理解。将透明程度与风险等级挂钩的制度设计是否合理值得探讨。算法透明“基于权利”的机制设计未能很好地融入“基于风险”的算法规制体系。该模式未能充分考虑算法可解释性障碍和公众认知局限,在实践层面遭遇来自技术和制度的双重挑战,这可能导致透明机制的失效和透明度期待落空。
鉴于可解释人工智能的技术属性,伴随以算法信任为核心的治理理念的兴起,正视技术发展现状,重新界定算法透明的制度目标:以提升公众信任为目标,将透明机制作为信任沟通的工具。信任评估包括直接评估和间接评估,算法透明机制的影响对象是普通公众。直接信任依赖于信任方对受信任方直接的观察和评估来建立。直接评估更适用于专家审议场景,向公众传递有助于算法可信度评估的重要信息。
算法治理体系是包括行政监管、企业自我规制以及社会监督三方协同的综合治理体系。具体包括:加强行政监管中的信息披露,有助于提升公众对算法治理的认知。算法透明机制要求企业加强自我披露。就社会监督而言,算法信任的建立鼓励第三方机构参与算法评估和审计工作,并确保相关流程和结果的透明。
(一)超大型互联网平台
丁晓东教授在《论超大型互联网平台的法律规制》一文中指出,当前超大型互联网平台存在问题。在市场准入方面,平台具有明显的网络效应,使得其常常能够持续性地占据主导地位。在自我优待方面,超大型互联网平台在提供信息搜索与中介服务的同时,自身往往生产内容、销售商品或提供商业服务,并且进行自我优待。在影响用户基本权利方面,在互联网时代,大量的公共言论表达都依赖于互联网平台。在决策机制方面,超大型互联网平台的决策机制并不像政府决策一样遵循透明性、中立性、程序性原则,一般也将相关决策作为商业问题看待。
现有的方案及其困境有二:一是竞争中立,但超大型互联网平台虽然存在准入壁垒,但其往往存在跨界竞争,是否存在市场垄断地位,仍然需要进行个案分析。同时作为基于普遍规则的事前规制与反垄断法所秉持的原则存在冲突。二是准公权力责任,首先可能导致平台责任法律体系的不协调,可能与限制平台权力、保障平台内用户权利存在冲突,导致形式主义的合规而非真正提升决策的正当性,也面临国内政治与地缘政治问题。
对此,文章提出如下解决方案:一是对经济性影响的竞争法规制,既给予市场主体充分自主性空间,又可避免市场完全自由发展,进行更精准规制,避免认知错误,更有效地保护消费者利益。二是对社会性影响的治理型规制,适用已有的保护型法或倾斜保护性法,适用一般平台责任法,针对规模性与积聚性社会风险,督促平台履行社会责任。三是对政治性影响的代表性规制,施加主体性责任,要求超大型互联网平台促进理性的公共讨论、实现对人民意志的代表。四是对国际性影响的共同体规制,在保证超大型互联网平台符合我国和国外主权国家的法律规制要求的同时,引导其担负构建人类命运共同体的重任,为全球治理贡献中国式现代化的治理方案。
(二)平台间接责任
丁晓东教授在《重构“知情”:平台间接侵权责任反思》一文中指出,传统共同侵权与避风港制度虽然都将知情状态视为是否应当承担责任的重要标准,但二者对于知情状态的理解并不相同。一方面,传统共同侵权以过错或过失来理解平台的知情状态,其对平台所施加的责任相对较重。当平台“知道”或者“应当知道”平台内存在侵权时,都应当承担共同侵权责任。另一方面,避风港规则以合规免责的立场理解平台的知情状态,其对平台所施加的责任相对较轻。在法律实践中,法院对知情的理解与判断常常在两种制度间摇摆,经常出现不一致的理解。甚至即使在统一制度内知情的判断标准高度不确定。因此,平台还会陷入“不做不错”“做多错多”的悖论。
随着侵权形态的变迁,以知情状态判断平台过错与责任,不再适合具有大规模和外溢性的平台间接侵权。只适合分析某些平台参与特定个案侵权的情况。典型的平台间接侵权是大规模治理下所产生的问题,平台并不参与个案性的帮助侵权或教唆侵权,其“知道”“应知”或注意义务应当以是否具有整体性治理过错为依据,其判断因素包括侵权的危害程度,其促进的合法活动与社会利益,平台辨识侵权活动的难度、改善平台内生态的成本,是否首要侵权者承担责任比平台承担责任更有效。从典型平台间接侵权的大规模治理型侵权特征出发,可以对传统共同侵权与避风港制度进行协调,无论是传统共同侵权制度还是避风港制度,其知情判断的标准都应当是一致的,平台注意义务的分析应避免法律解释学上的语义学之刺,重点按照分领域、案例建构的方式构建相关规则破解算法推荐等场景下知情分析的不确定性,同时消除平台“不做不错”“做多错多”悖论。
(一)人工智能法律治理的框架
1.人工智能法框架体系的多维动态模式
马国洋助理教授在《论“人工智能法”框架体系的多维动态模式》一文中指出,价值链模式的困境在于,主体权利和责任的精准度不足且不能深入到不同场景设计不同的主体要求。生命周期模式的缺陷在于,未落实具体权利和责任主体且对于特殊场景的适应性也存在一定程度的不足。场景模式很大程度上增加了其对于单一情境下人工智能治理的针对性但在一定程度上牺牲了对于人工智能监管的整体性,其跨场景的治理能力会受到一些限制。“人工智能法”框架体系的多维动态模式是顺应人工智能治理发展趋势的产物。
多维动态模式是三个基本维度的有机组合,分别是基于主体进行治理的价值链维度,价值链维度的展开主要围绕技术开发者、技术提供者、技术应用者和受技术影响者。基于流程进行治理的生命周期维度,包括人工智能规划和设计、数据选择与处理、算法设计与模型建立、技术审查与检验、技术部署与使用。以及基于不同场景进行治理的场景维度。
在组合方式上,多维动态模式要求以人工智能的生命周期为主线,在不同环节为价值链中的不同主体赋予相应的权利和责任方式,实现生命周期维度与价值链维度的有机融合。基于人工智能在不同风险类型场景的应用情况,分析各个生命周期环节需要设计的特殊措施并单独予以说明。其动态化调整则应基于敏捷治理的原理,为了保证动态机制的有效性,应成立人工智能委员会,具体包括:建立人工智能信息动态监测机制、建立“人工智能法”框架体系多元合作机制、建立“人工智能法”框架体系信息反馈机制。
2、从“分类分级”到“模块组合”的治理的框架
苏宇教授在《人工智能法律治理的框架选择:从“分类分级”到“模块组合”》一文中指出,人工智能立法不宜采取分类分级式框架,缺陷主要在于框架与治理对象在结构层面失配,人工智能活动的复杂性使得全面、妥当的风险分类与归类难度极大。人工智能治理的法律框架,必须能够良好地涵盖不断发展中的人工智能技术及应用,这就要求立法者对人工智能的基本构成作一个整体式的观察。分支式治理思路还需要深入考虑人工智能技术发展的开放性和叠加性特征,这是走向“模块组合”的关键。
人工智能立法的规则框架应当采取模块化、多分支的架构:以规则型人工智能和学习型人工智能的划分为最基本的底层分支,自学习型人工智能开始,对于每一个有法律治理需求的技术模块,建立可以针对性适用的规则,形成灵活的“规则模块”。
人工智能立法中“模块组合”框架的基本构型:一是参数模块:隐含黑箱的训练参数;二是生成模块:不特定信息生成机制;三是开源模块:分发参数的开源链条;四是隔离模块:涉敏涉密的领域模型;五是运动模块:模型驱动的物理过程。
人工智能法应当建立与模块化治理相适应的法律制度框架,相关规则模块根据治理对象的特点而针对性地适用,并且可以根据未来人工智能技术的发展而动态增减。《人工智能法》应以专门性的章节进行制度设计。人工智能法以专门性的章节承载上述模块的制度设计,关键在于便利模块的增减、调整和规则的修改,建立动态调节机制:构建法律规则模块实践需求与实施效果评估机制,确立支持模块化法律规则演化与适应的辅助机制,确立包容试验和敏捷指向的过渡性规则适用机制。
(二)训练数据的法律治理
1. 训练数据的法律风险规制
黄锫教授在《人工智能大模型训练数据的风险类型与法律规制》一文中基于现行法律制度和大模型的技术原理指出会存在训练数据著作权侵权、个人信息侵权等侵权风险;训练数据价值偏差、时效性偏差、真实性偏差等偏差风险;训练数据面向开发者的数据泄漏风险、面向攻击者的数据泄漏风险等泄漏风险。
文章指出可以通过调整现行立法来满足人工智能大模型开发者的训练数据需求:1.调整《著作权法》的规定,将开发者使用作品类数据进行大模型预训练的活动设定为著作权合理使用方式之一。2.调整《个人信息保护法》的规定,在保护信息主体人格权的底线之上消除开发者使用个人信息数据进行大模型预训练活动的规则障碍。
其次,通过元规制的方式激励人工智能大模型开发者防范训练数据的偏差风险,还需要其他法律规制工具来确保元规制的有效实施。为了防范大模型训练数据的偏差风险,行政法律责任的设定较为合适。这一方面是因为行政法律责任是由行政规制机关主动予以追 究 的,并可以依法强制开发者承担责任,这就可以避免民事法律责任过低的激励强度。 另一方面是因为行政法律责任的形式多样且强度低于刑事法律责任,这就可以避免刑事法律责任过高的激励强度,使行政规制机关能够更灵活地激励开发者加大防范训练数据偏差风险的力度。
最后,通过加强法定义务督促人工智能大模型开发者防范训练数据的泄漏风险:通过增设开发者的“显著标识义务”防范面向开发者的数据泄漏风险。通过扩张开发者的数据安全保护义务防范面向攻击者的数据泄漏风险。
2. 训练数据的高质量供给
赵精武副教授在《论人工智能训练数据高质量供给的制度建构》一文中指出,是训练数据高质量供给保障需要明确三个方面的子问题:
一是我国现阶段人工智能训练数据高质量供给的法律内涵:供给方式合法与供给渠道多元。故而“高质量供给”问题实质上也就转变为法律如何规范训练数据市场供给行为。《数据安全法》第 13 条、《生成式人工智能服务管理暂行办法》第 7 条均对数据来源合法目标的实现提出设置专门的义务性条款。至于个人信息侵权争议问题的解决,则可以通过建构训练数据匿名化处理机制等方式规避一些潜在的可识别风险。科技创新主体能够在多元化的训练数据供给渠道之间进行充分选择。
二是训练数据高质量供给制度的正当性基础:主体要素与资源要素的保障。训练数据供给保障机制的建构目标是满足人工智能科技创新需求,涉及考量不同类型创新主体的差异化需求。在协同治理框架下表现为训练数据供给方式的实质公平性。
三是明确高质量供给保障机制的建构路径。以科技创新主体为导向:建构人工智能训练数据公共服务平台。以市场公平竞争为导向:建构公平性的训练数据供给生态保障体系。高质量供给保障机制与外部数据要素配置机制的衔接路径主要涉及数据安全保护制度和数据交易制度两个方面。人工智能训练数据高质量供给保障机制的建构前提是训练数据来源的合法性和认可训练数据财产权益的存在。
(本文文字编辑李敏华。本文为中国民商法律网“原创标识”作品。凡未在“中国民商法律网”微信公众号正式发布的文章,一律不得转载。)