个体赋权在算法决策治理中的定位.docx
《个体赋权在算法决策治理中的定位.docx》由会员分享,可在线阅读,更多相关《个体赋权在算法决策治理中的定位.docx(10页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、个体赋权在算法决解S中的定位内容提要:厘清个体赋权路径在算法决策治理中的定位才能合理界定个人权利范围和效能。算法决策治理具有双 重目标,即尊重人的主体性和解决算法决策的功能性问题。个体赋权存在个体能力不足、解释意义不足、个体权利绝对 化等限制,不宜将其作为解决算法决策功能性问题的主要路径。个体赋权的定位主要在于尊重人的主体性,通过构建算 法“正当程序”为使用算法提供正当性基础。个体赋权的内容应当体现为通过透明权利适度提高算法透明度,以便于个人 了解自动化决策并提出观点和质疑。解决算法决策功能性问题的重心应当转向以“风险预防规则”和协同治理模式为核心 的个人信息影响评估,形成全过程治理。引言随着
2、算法技术的深入发展与广泛应用,算法权力扩张到社会的各个方面。算法决策可能对个人产生约束效果并严 重影响个人权利与自由,因此算法决策从最初的计算机概念转变为社会治理的对象。个体赋权路径是算法决策治理中的 重要路径,我国个人信息保护法(以下简称个保法)与欧盟通用数据保护条例都规定了与算法决策有关的 个体权利,但是相关研究对个体赋权路径的权利范围与效能争议较大。参见张欣:算法解释权与算法治理路径研究, 载中外法学2019年第6期;沈伟伟:算法透明原则的迷思算法规制理论的批判,载环球法律评论2019 年第6期。如何理解和构建算法决策治理中的个体权利需要综合考量个体赋权路径的定位与限度,本文通过反思针对
3、算 法决策的个体权利的规定,厘清个体赋权在算法决策治理中的定位,为我国未来算法治理提供借鉴。一、算法决策治理的双重目标算法决策,又称自动化决策,是指“通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、 信用状况等,并进行决策的活动”。中华人民共和国个人信息保护法第七十三条。在算法决策应用于社会的过程中, 算法妨害与算法黑箱问题成为算法决策治理的重要动因,其反映了算法治理的双重目标,即解决算法决策的功能性问题 与尊重个体的主体性问题。(一)算法妨害在数学意义上,算法是指“通过特定计算将输入数据转换为输出结果的编码过程”。Tarleton Gillespie,The Releva
4、nce of Algorithms,in Tarleton Gillespie et al.,Media Technologies:Essays on Communication,Materiality,and Society,Cambridge,The MIT Press,2014,p.167.然而,当算法广泛应用于社会时,就成了具有社会意义的技术,社会生 活的每个方面都可能受其影响。算法决策的普及化使我们生活在一个“评分社会(Scored society)See Danielle Keats Citron & Frank Pasquale,The Scored Society:Due Pr
5、ocess for Automated Predictions,89 Washington Law Review 1(2014).或者“黑箱社会(Blackbox society)。See Frank Pasquale,The Black Box Society:The Secret Algorithm That Control Money and Information,Harvard University Press,pp.10-11(2015).通过收集并分析我们的数据,算法对我 们生活的方方面面进行评价,如人们买了什么、做了什么,人们如何思考、如何工作,人们的关系网如何以及他们如何 处
6、理个人的关系。这类信息是关乎特定个人的“预测个人信息”,个人对其有被他人操控的疑虑和恐慌,参见邢会强: 大数据交易背景下个人信息财产权的分配与实现机制,载法学评论2019年第6期。这类评价涉及我们生活的 每个方面,如市场营销、保险、教育、就业、行政、司法等,一旦自动化决策过程存在歧视、偏见、错误甚至操纵行为, 其将对个体甚至某个群体带来巨大的外部成本。举例来说,普林斯顿大学的研究人员通过现有的算法AI软件系统分析 了 220万个单词,发现欧洲人的名字比非洲裔美国人的名字评分更高,“女人”和“女孩”这两个词更有可能与艺术联系在 一起,而不是与科学和数学有关,科学和数学与男性的相关程度更高。See
7、 Adam Hadhazy,Biased法正当程序将类似的要求移植到算法决策的场景中。我国个保法为个人规定了知情权、要求说明解释权,以及自动 化决策的拒绝权,这些应当被理解为算法的“正当程序”。如前文所言,算法黑箱制造的信息不对称扩张了算法权力,个 体如果无法知悉决策、获得决策的解释并提出自己的质疑,个体的主体性将在算法权力面前消失殆尽,从而彻底被物化。 人的权利实际上代表了一种反对权力滥用和权力专横的立场,是对个人尊严以及对人们自由、自决能力进行认同。美 玛丽安格伦顿:权利话语:政治言辞的穷途末路,周威译,北京大学出版社2006年版,第14页。此外,个体赋 权在解决算法歧视与决策错误等算法决
8、策功能性问题上也有一定的作用,它有助于数据主体发现和纠正系统错误、偏见 和歧视。算法设计者集“运动员”与“裁判员”于一身,其既是使用算法决策的人,又是创设算法规则的人,这将导致没有任 何制衡制度来确保系统中不存在偏见。算法正当程序的一个核心功能是将编写规则的人与使用该法律法规的裁决人员分 开。个人对算法决策的挑战与纠正使得算法规则接触到符合法律原则和社会规范的外部评价,从而减少偏见和歧视。因 此,为个体设定透明权利,要求数据控制者披露信息,并允许个人参与和纠正分析和决策,尊重了人的尊严与主体性。 算法正当程序为算法决策提供了正当性的理由,有助于缓解社会对算法黑箱的担忧。在建构个体权利时应当认识
9、到个体赋权的定位。如前文所述,透明权利的核心定位在于为数据主体质疑和发表意 见提供有意义的解释,自动化决策拒绝权的核心定位在于赋予个体积极的控制性权利,增强个体参与算法决策治理的能 力。然而,在解决算法决策功能性问题上,个体赋权的效果不佳。因此,只要涉及通过个体解决算法决策功能性问题, 无论是要求提高算法透明度以实现个体问责,如通过高度透明的算法解释权实现算法问责,还是通过个体赋权直接对算 法进行问责和控制,如通过自动化决策拒绝权来实现算法决策治理,都会受到治理效能不足的质疑与挑战。但是,个体 赋权有助于构建算法“正当程序”以解决人格尊严保护问题。适度使用透明度工具并提高个体的参与度,能够缓解
10、个体的 不安,增强个体对算法决策的信任。因此,个体赋权的构建应当着眼于建立算法“正当程序”,而非个体对算法决策功能 性问题的问责与控制。在构建算法正当程序上,个体赋权的内容应当体现为通过透明权利适度提高算法透明度,以便于 个人在参与算法问责中了解自动化决策,并提出观点和质疑。在解决算法决策功能性问题上,算法决策治理的重点应当 从个体赋权转移到对信息控制者施加义务。(二)解决功能性问题的重心:“风险预防规则”与“协同治理”从个人信息保护的制度起源“公平信息实践”的发展历程来看,个人信息保护早期主要依赖个体赋权与个人信息 的控制者责任,囿于个体赋权的局限性,后期版本的公平信息实践对信息控制者施加了
11、更多的风险防范与治理义务。例 如,2004年的APEC隐私框架将风险预防原则作为公平信息实践的首要原则。欧盟第29条工作组认为风险路径值 得提倡且已体现于GDPR的立法中,个保法第五十一条与GDPR第32条规定了与风险相称的措施;个保法第 五十六条与GDPR第35条规定了风险评估;个保法第六十四条与GDPR第36条规定了风险监管责任。参见前引 ,丁晓东书,第113-114页。个体能力不足意味着算法决策治理需要从个体赋权转向信息控制者的“风险预防规则”。 此外,由于算法的深入发展带来监管和问责困难,算法决策治理已经不能局限于某一阶段,需要建立事前、事中、事后 的全过程监管。在治理过程中,政府、市
12、场、社会和个人等单一主体治理都存在较大的局限性,算法治理需要由单一主 体监管转向协同治理路径。风险评估既属于“风险预防规则”,又体现了协同治理。首先,风险评估类似软性的市场准入机制。公共机构与私营部门协同控制算法风险的合理范围体现了协同治理模 式。风险评估的时机在进行自动化决策之前,体现了风险防范的原则。在使用算法系统之前,信息处理者必须针对风险 评估履行一系列的合规义务,确保自动化决策的风险在可控范围内。个保法第五十六条规定个人信息保护影响评估 应当包括下列内容:个人信息的处理目的、处理方式等是否合法、正当、必要,对个人权益的影响及安全风险,所采取 的保护措施是否合法、有效并与风险程度相适应
13、。GDPR要求评估的内容包括:(1)系统描述处理的具体流程和处理 目的,以及控制人所追求的合法利益;(2)处理过程的必要性和相称性;(3)为数据主体的权利和自由带来的风险; (4)为处理风险而设想的措施,并在考虑到数据主体和其他有关人员的权利和合法利益的情况下,证明遵守本条例; (5)行为准则。此举有助于在事前控制算法风险,防止算法风险的扩散。欧盟自动化决策指南就曾建议企业经常 对其处理的数据集进行评估,以检查是否存在任何偏见,并开发解决任何偏见因素的方法以防止数据处理中的错误或歧 视。事前数据影响评估的要求同样体现了协同治理:在评估的过程中,监管机构负责指引和监管,而信息控制者可以根 据评估
14、结果部署与风险相适应的保障措施,并证明其履行了合规义务。我国个保法严格规定所有类型的自动化决策 都需要进行个人信息安全评估。信息控制者根据个保法和工信部制定的信息安全技术 个人信息安全影响评估指 南国家市场监督管理总局、国家标准化管理委员会信息安全技术个人信息安全影响评估指南,GB/T 39335-2020, 2020年11月19日发布,2021年6月1日实施。(以下简称评估指南)落实风险评估。评估指南规定,组织 需要根据评估结果部署相应的保障措施并持续跟踪风险处置的落实情况。在组织自行进行算法影响评估时,主管的监管 部门可以要求独立审计来核证评估报告的合理性与完备性。通过对信息控制主体施加事
15、前进行风险评估的义务,并由个 人信息保护机构进行监管和指引,解决了个体赋权路径中个体风险感知和风险控制能力不足的问题。GDPR仅要求对具 有高风险的自动化决策进行事前评估。在进行数据评估时,控制者必须咨询相关的数据保护机构,数据保护机构必须向 控制者提供书面建议,并可以行使其权力暂时或永久禁止使用该系统。控制者如果无法合规而投入使用该系统,其将面 临相应的惩罚(罚款最高可达全球营业额的4%)。其次,风险评估是提高透明度和增强问责制的重要工具,既有助于个人信息保护机构对算法进行事后问责,也能 激励信息控制者参与算法的事中治理与监督。风险评估中的透明度与问责制不同于个体赋权,参与协同治理的主体比个
16、 人更具有理解和监管算法决策以及进行事后问责的能力。在提高透明度方面,算法影响评估允许公共机构和第三方的介 入,有助于相关主体了解并监管算法的运作过程,提高相关主体的问责能力。此外,风险评估还是集存档、监测和审查 于一体的问责工具。个保法第五十六条与欧盟数据影响评估指南Article 29 Data Protection WorkingParty,Guidelines on Data Protection Impact Assessment (DPIA) and determining whether processing isMlikely to result in a high risku
17、for the purposes of Regulation 2016/679,WP 248.均规定了评估报告和处理情况记录需要存档的要求,以 便于相关机构进行监测、审查和问责。公共机构无法在事前提供精确的法律规范,需要私营机构发挥其专业能力参与到 算法的协同治理中。为了保证私营主体的治理不偏离公共治理目标,公共机构需要进行事后问责与监督,要求算法设计 者或使用者设置可溯源的措施有助于保证事后的追责。参见美约叔华A克鲁尔、乔安娜休伊、索伦巴洛卡斯、爱 德华W.菲尔顿、乔尔R.瑞登伯格、大卫G.罗宾逊、哈兰余:可问责的算法,沈伟伟、薛迪译,载地方立法研 究2019年第4期。这实际上建立起了风险评
18、估的“双重问责制”,即基于信息控制者合规义务的问责,如要求控制者设 置与风险相对应的措施和可溯源的措施,以及基于算法决策不利后果的问责,有助于激励控制者在算法运行过程中持续 监测和控制算法的风险,形成算法治理的事中规制。最后,风险评估有助于促进规则的形成。虽然风险评估目前并没有形成统一的行业标准。然而,随着时间的推移, 公共机构反复评估将形成一定的经验而影响一般的合规标准。例如,形成需要进行风险评估的负面清单、相应风险所需 的保障措施等。这正是协同治理路径的核心,在公私合作规制的过程中形成动态、有效、与风险相匹配的自动化决策规 制。结语个体赋权在算法决策治理中的定位是实现算法正当程序,相当于个
19、体权利建构的最低阈值,但是由于个体赋权在 解决功能性问题上的效能不足,治理效能限制了个体权利在算法决策治理中的最高阈值。因此,未来在算法决策治理中 的权利建构与适用应当着眼于如何构建算法正当程序,不应苛求通过构建过于宽泛的个体权利来解决算法决策功能性问 题。在解决算法决策功能性问题上,以风险评估为核心的协同治理路径为实现有效的算法治理提供了可能性。Bots:Artificial-lntelligence Systems Echo Human Prejudices,Princeton University,April18,2017, https :/www. pri nceton. ed u/n
20、ews/2017/04/18/biased-bots-artificial-intelligence-systems-echo-human-prejudic es,December 15,2021.如果算法基于以上的发现决定就业机会或者教育机会,非洲裔美国人和女性将受到不公平对待。 实际上,亚马逊平台的在线招聘算法系统曾被发现存在性别歧视。See James, Vincent, Amazon Reportedly Scraps Internal Al Recruiting Tool That Was Biased against Women, The Verge, October 10, 20
21、18.https: , December 15, 2021.更有甚者,算 法决策可能成为操纵特定个体或群体评价的手段。如果算法评价成为了社会活动的重要评价标准甚至唯一标准,人的弱 点与缺陷将在算法面前暴露无遗,掌握技术优势的人很可能会改变人们的特性,如改变其消费态度甚至是观点立场。人 的主体性将在算法技术中消失殆尽。随着算法评价的增加与深入,社会上的人将形成属于自己的数字画像,每个数字画 像对应着特定的评分、特征甚至是弱点。基于画像评分不断增加的歧视、排斥与操纵将会加深入的脆弱性。在使用算法 的过程中,算法歧视、算法错误与算法操纵形成了对社会中的个体或群体的妨害。这类妨害具有典型的非竞争性和非
22、排 他性的特征,如同污染一般是一个程度问题,算法针对的可能不是特定的主体或者群体,而是所有人都或多或少受到影 响。美罗伯特考特、托马斯尤伦:法和经济学(第6版),史晋川等译,上海人民出版社2012年版,第156 页。算法妨害源自其无法自洽的功能逻辑。算法广泛应用基于一种功能的逻辑,传统的人类决策充满着歧视、认知偏 差、错误、效率低等缺陷,自动化决策被寄予解决人类决策缺陷的厚望。算法作为一种技术仿佛是中立、客观且不存在 任何偏见的。技术中立的含义主要包含了:功能中立、问责中立与价值中立。价值中立是技术中立原则的核心部分。 参见郑玉双:破解技术中立难题法律与科技之关系的法理学再思,载华东政法大学学
23、报2018年第1期。 然而,算法并非如其所宣称般中立。相反,算法可以使现有的刻板印象和社会隔阂永久存在。正如Cathy ONeil所言, “算法模型只是镶嵌在数学中的观点”,算法实际上是现实世界的数学模型。ee Cathy Oeil,Weapons of Math Destruction:How Big Data Increases Inequality and Threatens Democracy,Crown Publishing Group,2016,p.21.在算法 设计上,算法的对象、输入的内容、数据的加权比重、算法的类型等方面无不由人类来决定。在数据输入上,所有的数 据均来自于现实
24、社会,这些数据本身就可能带有偏见与刻板印象,例如:性别、肤色、种族等原生敏感数据,在深度分 析下,邮政编码、IP地址等关联数据有可能成为带有歧视的敏感数据。软见谢琳:大数据时代个人信息边界的界定, 载学术研究2019年第3期。即使在复杂甚至能够产生“意识”的算法模型中,如机器自主学习、人工智能等,人类的 观点与选择都贯穿于算法建构、训练、监管的全过程。,智航教授归纳了算法歧视的三种基本类型,包括:偏见代理 的算法歧视(“关联歧视”)、特征选择的算法歧视、大数据(算法)“杀熟”。参见郑智航、徐昭曦:大数据时代算法歧 视的法律规制与司法审查以美国法律实践为例,载比较法研究2019年第4期。在“技术
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 个体 算法 决策 治理 中的 定位
限制150内