王利明:对生成式人工智能法律规制的几点思考
2023年8月13日      ( 正文字号: )
文章标签:民法典   人工智能   侵权责任
[ 导语 ]

本文来源于王利明教授在2023世界人工智能大会法治论坛的演讲。

[ 内容摘要 ]

技术的变革总是在法律世界中引发新的机遇与挑战,就生成式人工智能而言,其产生的最大挑战就是潜在的侵权纠纷,思考如何在法律上进行规制,是值得探讨的重要话题。

[ 内容 ]

一、生成式人工智能的侵权对象

首先,生成式人工智能的侵权不同于传统的网络侵权,因为它的生成内容是向特定的用户提供的,本身并不具有直接公开性,不会出现大规模的直接侵权现象。从侵权对象来看,ChatGPT等生成式人工智能引发的侵权行为,主要是侵害人格权和知识产权。

ChatGPT容易生成虚假信息,在经大面积传播后,不仅会对单个的受害人产生重大损害,甚至会引发社会的不稳定。

二、生成式人工智能侵权场景下的侵权主体

生成式人工智能侵权的类型较为复杂,具体包括:第一,服务提供者可能收集、非法处理甚至泄露信息,引发侵权。第二,用户使用生成式人工智能的产品时,采取恶意提问等方式使生成式人工智能产生虚假信息,并且对虚假信息进行传播,这也可能构成侵权。第三,服务提供者开发的生成式人工智能存在固有缺陷,引发生产者责任。第四、可能是服务提供者和用户共同的作用产生侵权。因此,在生成式人工智能侵权中,责任主体具有复杂性和多元性,因而有必要区分不同场景,明确不同主体的责任。

三、生成式人工智能是否构成侵权的认定

面对生成式AI引发的侵权问题,在价值取向方面,我个人认为,法律首先应当秉持鼓励创新、预防风险的立场。我们要看到风险,但技术落后才是最大的风险。具体到侵权责任制度的价值取向,不能一味强调制裁功能。基于此,对于生成式人工智能侵权的认定,宜持如下立场:首先,在归责原则上应当主要适用过错责任原则,也就是说相关责任主体原则上只有主观上存在过错时才需要承担侵权责任。其次,对生成式AI虚假信息侵权,AI服务提供者承担责任应当借鉴“避风港规则”,因为其与网络侵权具有类似性,主要是进行信息传播的用户的责任,这并非服务提供者所能完全避免和控制。AI服务提供者只有在收到通知后未能在合理期限内删除相关的虚假信息,才依法承担相应的侵权责任。该规则充分考虑了技术发展的现状,对服务提供者较为宽容,既有利于激励创新,也能在一定程度上督促服务提供者尽到足够的注意义务。第三,对生成式人工智能服务提供者有必要确立其对个人信息、隐私的安全保障义务,并防止用于深度伪造。

四、生成式人工智能侵权的承担方式

我个人认为,还是可以适用《民法典》和《个人信息保护法》的相关规定。但这里面仍然要区分非法处理和泄露个人信息的侵权与其他样态的侵权,分别确立不同的责任。针对非法处理和泄露的侵权,已经在《个人信息保护法》等法律里作了相应的规定但是,对于其他的利用生成式人工智能产生的侵权,完全可以适用《民法典》侵权责任编的相关规定。因生成式人工智能引发的侵权,目前为止还没有完全超出《民法典》和《个人信息保护法》的相关规定,但是这并不意味着我们法律应对的依据就已经足够了。我们还需要建立相关的合规标准,也还需要在未来条件成熟时,通过特别立法进行有效应对,从而预防和处理生成式人工智能引发的各种风险,有效保障民事主体合法权益,促进人工智能产业的健康,这一点值得期待。

发表评论
推荐阅读
王轶:什么样的文章是法学期刊应当发表的好文章?
法学期刊在推动法学学术体系繁荣和发展过程中发挥重要作用。各期刊应在区分文章层次的基础上,决定所刊发的
王利明:法学教育应注重辩论能力的培养
法学教育应注重辩论能力的培养。
王利明:中国古代的法典为什么大都称“律”而不称“法”
中国古代“律”与“法”存在区别,法律意义上所说的“法”与“律”对应,但现代的法律具有全新的价值追求。
热门排行
学术公告
相关文章

编辑:鲍生慧

向编辑提问:

分享

扫二维码
用手机看民商
用微信扫描
还可以分享至
好友和朋友圈

中国民法学研究会
教育部人文社会科学重点研究基地
中国人民大学民商事法律科学研究中心

本网站由王利明教授创办并提供全部运作资金 Copyright◎2000-2021 All Rights Reserved 京ICP备2022010855号  
E-mail: ccclarticles@126.com