当前位置:民商法律网 > 学术前沿 >正文

民事法学|丁晓东:人工智能风险的法律规制——以欧盟《人工智能法》为例

发布日期:2024/11/6 正文字号:

文章标签:#人工智能  #生成式人工智能  #立法思路

导语

      面对人工智能迅猛发展所带来的风险,法律应当如何应对?2024年,欧盟出台了全球首部综合性人工智能立法。研究与反思欧盟《人工智能法案》的同时,中国应当选择适合本国战略的人工智能立法道路。对此,中国人民大学法学院丁晓东教授在《人工智能风险的法律规制——以欧盟〈人工智能法〉为例》一文中,通过详细梳理了欧盟《人工智能法》的风险进路、风险分类、风险分级与规制问题、特殊风险问题,提出了更合理的人工智能风险规制原理与制度。

内容

引言

  文章的论述结构如下:(1)欧盟《人工智能法》的风险进路;(2)欧盟《人工智能法》中的风险分类——产品风险与基本权利风险;(3)欧盟《人工智能法》中的风险分级与规制问题;(4)欧盟《人工智能法》中的特殊风险问题——生成式人工智能与大模型问题;(5)提出更合理的人工智能风险规制原理与制度;(6)结语部分对数字时代的风险规制问题进行反思

一、欧盟《人工智能法》的风险进路

  (一)禁止性风险

  禁止性风险指的是欧盟《人工智能法》所禁止的一系列人工智能实践产生的风险。欧盟《人工智能法》第二章对此做出规定。具有禁止性风险的人工智能系统主要包括:影响个人潜意识、危害弱势群体、社会评分、以刑事执法为目的的风险评估等8类。除非满足例外规定,欧盟不允许属于禁止性风险的人工智能系统被投放市场、投入服务或使用。该部分对这几类禁止性风险进行了具体展开。

  (二)高风险

  高风险的人工智能系统是指对个人健康、安全与基本权利产生高风险的人工智能系统。欧盟《人工智能法》规定了高风险系统分为产品类和独立运行两类,并在附件三中对高风险情况进行了详细列举,欧盟委员会还可以更新附件三或者通过发布指南、授权立法等明确、添加、删除。相关义务要求的法条主要涉及《欧盟人工智能法案》第9-22、25、26、72、73条。

  (三)有限风险与最低风险

  有限风险的人工智能是对用户或消费者构成一定风险的系统,第50条规定了提供者有透明性要求。最低风险的人工智能是指不构成风险或风险可以忽略的系统,对此欧盟《人工智能法》并无强制性规定。

二、风险分类规制的难题

  (一)二元分类及其批评

  欧盟《人工智能法》采取了产品类风险与基本权利风险二元框架,一方面是为了保证欧盟产品监管的连续性,另一方面是为了与欧盟各国监管能力相适应。但是该种二元框架遭到一定批评,一些学者认为基本权利没有得到足够的保护。欧盟委员会提出了《人工智能、人权、民主和法治公约》的“零草案”侧重基本权利保护。 欧盟《人工智能法》也通过在最终版本中对部署者施加“基本权利影响评估”义务等方式来予以回应。

  (二)二元分类的合理性与矛盾性

  产品风险具有的“计算性”“概率性”“离散性”“单一维度性”等特征确实与侵害基本权利的风险的“整体性”等特点不同。“如果说产品风险类似于一种市场环境下的功利性计算,则基本权利的风险更接近于特定政治与文化背景下的价值判断。”虽然该种分类存在不足,但具有一定的可操作性和实质主义精神。

三、风险分类规制的难题

  (一)风险分级的标准

  对于风险分级规制的难题,欧盟人工智能风险分级没有回应以下问题:规制风险应当以实际风险还是感知风险为基础,仅因其是新兴科技就对其进行额外关注吗?例如非人工智能系统同样也会影响决策,存在不公,非人工智能的产品也会存在部件老化等风险。虽然欧盟理事会修正案限制了高风险人工智能的解释范围,但并未从根本上解决问题。人工智能风险判断应当以实际风险为基础,对于感知风险应当通过风险沟通等方式来消除,不应当基于非理性风险认知进行规制从而陷入“恶性循环”。

  (二)风险分级的科学性与确定性

  欧盟《人工智能法》的风险分级存在很大的弹性解释空间,使其不具有确定性。且分类存在科学性问题,例如利用人工智能系统筛选求职者简历并不一定对求职者基本权利造成过多影响,但对于应用于医疗挂号、在线外卖平台调度等决策的人工智能应用却存在较大风险。风险分级很难通过确定性规则予以明确,还应当结合具体场景和各种因素予以判断。

四、生成式人工智能与大模型

  (一)欧盟《人工智能法》草案的修订

  为应对生成式人工智能引发的一系列问题,在随后的修订过程中提出“通用人工智能模型”也体现了上述的不确定性,所有的通用人工智能系统都要遵循透明性要求,具有“高影响能力”的通用型人工智能系统需要承担模型评价等额外的义务。非欧盟成员国提供者在模型上市前可以在欧盟范围内指定代表协助履行义务。第53、55条强调了“行为准则”和“统一标准”对通用人工智能提供者的“推定合规”功能。

  (二)通用性人工智能风险规制的反思

  欧盟《人工智能法》草案要求通用人工智能提供者对下游主体承担风险减轻或安全保障义务,一方面可能对通用人工智能的核心商业秘密造成威胁,另一方面多用途性和功能开放性使得通用人工智能提供者要面对很多难以预见的风险并对其进行事前审查。因此,通用人工智能和大模型提供者应当承担公共风险领域的合理预防责任,但不应当要求通用人工智能和大模型提供者对其带来的非公共性侵权风险承担一般性的风险减轻义务。

五、人工智能风险规制的原理与制度

  (一)人工智能风险规制的原理

  首先,场景化风险规制可以对于人工智能风险进行准确判断,风险取决于事故严重性、发生概率等多种因素。其次,有利于法律采取更为合理的风险规制方式,人工智能应用于不同场景涉及不同法益、不同领域法律,例如商业场景与消费者权益、劳工场景与劳动者权益、公权力机关与公民基本权利等。最后有利于设置合理的监管机构与监管体系,主管部门已经积累了大量经验和充足的执法资源来应对不同场景和行业的风险。

  (二)人工智能风险规制的制度

  首先,在具体制度层面,应当将人工智能的应用者或其构成的产品作为风险规制对象,而非对人工智能系统本身或其提供者进行规制。但法律应对人工智能提供者造成国家安全风险进行监管,并受到市场合同与侵权制度的约束。其次,要区分市场主体和公权力机构对人工智能的应用,采取不同规制框架:对于市场主体,主要聚焦于公共性风险与社会不可接受的风险,通过产品和服务多样化实现社会福利最大化,并注重侵权法的事后司法规制进行个案判断;对于公权力机构,应当考量公平公正等公共性价值,并对不确定的人工智能进行地区或分支试点。上述进路已经被许多国家和地区所采用。

六、结语:数字时代的风险规制

  对于人工智能的风险规制不应过度追求统一化规制,应继续坚持场景化的风险规制,从而可以对风险进行准确判断、合理法律规制并设置合理的监管机构与监管体系,将人工智能风险还原到具体的行业、整体产品与已有的法律关系中进行监管。在制度层面,将人工智能的应用者或其构成的产品作为风险规制的对象,规制人工智能的应用者而非提供者。对于通用人工智能和大模型,应对其施加国家安全、重大公共安全的合理预防责任,在其他领域应结合共同侵权或帮助侵权、避风港等制度分析其责任。法律还应区分市场主体与公权力机构应用人工智能的情况制定不同规制框架,对于市场化应用应当注重通过侵权法对其进行事后司法规制。

  


    (本文文字编辑李敏华。本文未经原文作者审核。本文为中国民商法律网“原创标识”作品。凡未在“中国民商法律网”微信公众号正式发布的文章,一律不得转载。)

  


    文献链接:《人工智能风险的法律规制——以欧盟〈人工智能法〉为例》

推荐阅读