基于信任的自动化决策:算法解释权的原理反思与制度重构
-
期刊年份: 2022
-
期号: 1
-
页码: 99
-
基 金: 2018年度国家社科基金一般项目“大数据背景下的个人信息保护与企业数据权属研究”(项目批准号:18BFX198)的阶段性成果。
-
作者: 丁晓东
-
学科分类: 科技法学
-
专题分类: 个人信息保护
-
摘要:
基于个人信息的算法自动化决策越来越普遍,我国《个人信息保护法》和相关国内外法律都引入算法解释权加以应对。但由于算法具有黑箱性、不确定性与复杂性,算法解释权是否应理解为一般性权利还是限定性权利,要求系统性解释还是个案性解释、事前解释还是事后解释、人工解释还是机器解释,都存在解释争议与适用困境。在原理层面,这一争议与困境源于个人算法控制论。应以沟通信任原则重构算法解释权,将算法解释权的性质视为一种程序性权利,而非实体性权利。算法解释权制度也应进行重构,建议根据自动化决策所处的行业领域、市场化程度、个案影响、企业能力而对其内容、程度、时间和方式作不同要求。
-
期刊栏目: 未来法治研究
一、引言
算法自动化决策在给个人带来便捷服务的同时,其黑箱属性和可解释性也引起了社会的普遍关注。为了应对与个人信息相关的算法黑箱问题,各国都在个人信息或个人数据保护法中规定了相关的算法解释权条款。但是,有关算法解释权的内容、程度、时间、方式等制度问题仍然存在很大争议。本文试图对算法解释权的解释争议与应用困境作更系统性阐述,在原理层面借鉴信任与沟通机制理论对算法解释权进行新的反思,并在此基础上进行制度重构。
二、算法解释权的解释争议
目前各国都在其个人信息或个人数据保护法中引入了算法决策的相关条款,这些条款往往可以作不同解读。
(一)一般主张与限定主张
在权利内容方面,算法解释权一方面可以被解释为一般性权利主张,即此种权利赋予了个体在所有情形下针对所有自动化决策者的算法解释权利。另一方面,《个人信息保护法》的相关规定又可以被理解为限定性的权利性主张,包括特定条件下的说明解释权与拒绝自动化处理的权利。欧盟《一般数据保护条例》具有一定的相似性。
(二)系统解释与个案解释
算法解释权的程度要求也可以作两种理解。一种理解是,个人可以要求自动化决策者对算法的系统功能进行解释。另一种理解是,个人可以要求对个案决策进行解释。两种解释为个人赋予不同的信息权利,为自动化决策者施加不同的责任。从法条解释来看,以上两种程度要求都可以在我国的《个人信息保护法》中找到依据。欧盟的《一般数据保护条例》也可以作两种解释。
(三)事前解释与事后解释
就解释的时间要求而言,算法解释权既可以视为要求自动化决策者进行算法决策前的解释,也可以视为要求自动化决策者进行算法决策后的解释。对于算法解释权的时间要求,我国《个人信息保护法》并未进行明确规定。欧盟《一般数据保护条例》也作两种解释。一方面,《一般数据保护条例》中的很多条款规定了收集与处理个人信息前的告知性权利。另一方面,《一般数据保护条例》第22条规定的拒绝自动化处理的权利,在一定程度上赋予了个体以事后解释的权利。
就解释方法而言,算法解释权可以被认为要求进行人工解释,即当个人提出算法解释权的主张时,自动化决策者应当通过人工服务的方式解释算法的运行机制。另一方面,也可以认为纯粹机器解释同样符合算法解释权的要求。目前各国的个人信息保护法并未对解释方法作出明确规定。欧盟《一般数据保护条例》和相关规定也可以解读出人工解释与机器解释两种不同要求。
三、算法解释权的适用困境
算法解释权的困境不仅存在于法律解释层面,也存在于法律适用与效果层面。一旦对算法解释权的内容要求、程度要求、时间要求、方式要求作刚性的规则要求,就会带来各类问题。
(一)
【注释】