人工智能与数据保护指南

人工智能与数据保护指南

基于人工智能1 (“AI”) 的系统、软件和设备 (以下简称人工智能应用) 正在提供新的、有价值的解决方案,以应对各领域中的需求与挑战,例如智能家居、智慧城市、工业部门 、医疗保健以及犯罪预防等。人工智能应用可以是决策的有益支持工具,尤其实证性、包容性政策。与其他技术创新的情况一样,这些应用可能对个人和社会产生不利结果。为了防止这种情况,第108号公约缔约方将确保并使人工智能的研发与使用尊重隐私和数据保护(《欧洲人权公约》第8条),进而提升人权和基本自由水平。

本指南规定了一系列基准要求,政府、人工智能开发者、制造商和服务提供者应当予以遵循以确保人工智能应用不会侵害人的尊严以及每个人的人权和基本自由,特别是数据保护权。2

本指南中的任何内容均不得被解释为排除或限制《欧洲人权公约》和第108号公约的规定。本指南还需考虑更新版第108号公约(通常称为“第108号公约+”)引入的新保障措施。3

人工智能与数据保护指南

一、 一般指引

1. 当研发和采用可能对个人和社会产生影响的人工智能应用时,对人的尊严以及人权和基本自由的保护,特别是个人数据保护权具有基础性。 当人工智能被应用于决策过程时,这一点尤为重要。

2. 依赖于个人数据处理的人工智能研发应基于“第108号公约+”的原则。该进路的关键要素包括:合法性、公平性、目的特定性、数据处理比例性、设计隐私与默认隐私、责任与合规展示(问责)、透明度、数据安全和风险管理。

3. 专注于避免和减轻个人数据处理潜在风险的进路是人工智能领域负责任创新的必要元素。

4. 根据2017年第108号公约委员会通过的《大数据指南》中规定的风险评估指引,应以更广泛的视角看待数据处理的可能结果。这一视角不仅应考虑人权和基本自由,还应考虑民主运行状态以及社会性、伦理性价值。

5. 人工智能应用必须始终充分尊重数据主体的权利,特别是“第108号公约+”第9条的规定。

6. 人工智能应用应允许数据主体对数据处理及其对个人和社会的相关影响享有有效的控制。

人工智能与数据保护指南

二、 研发者、制造商和服务提供者指引

1. 人工智能研发者、制造商和服务提供者应在其产品和服务的设计中采用价值导向的进路,契合“第108号公约+”特别是其第10.2条,以及欧洲委员会其他相关规则。

2. 人工智能研发者、制造商和服务提供者应评估人工智能应用对人权和基本自由可能产生的不利后果,并考虑到这些后果,采取基于适当风险预防和缓解的预防措施。

3. 在包括数据收集的数据处理所有阶段,人工智能研发者、制造商和服务提供者应采用人权设计(human rights by-design)进路,避免任何潜在的偏见(包括无意的或隐藏的)以及歧视或其他会对数据主体的人权和基本自由产不利影响的风险。

4. 人工智能研发者应当批判地评估所使用的个人数据的质量、性质、来源和数量,在研发和培育阶段减少不必要的、冗余的或边缘的数据,在投入新数据时监控模型(model)的准确性。合成数据5的使用可被视为一种可能的解决方案,以求实现人工智能应用处理个人数据量的最小化。

5. 在研发和使用人工智能应用时,应充分考虑去背景化数据6和去背景化算法模型7 对个人和社会造成不利影响的风险。

6. 鼓励研发者、制造商和服务提供者建立和咨询来自广泛领域的独立专家委员会,并与独立的学术机构合作,这有助于设计基于人权以及具备道德和社会导向的人工智能应用,并且能检测潜在的偏见。 该等委员会可能在透明度和利益相关者参与度因为存在竞争性利益和权利而更加困难的领域发挥尤其重要的作用,例如在预测性司法、犯罪预防与侦查领域。

7. 应鼓励可能受人工智能应用影响的个人和群体积极介入参与型风险评估。

8. 所有产品和服务的设计应确保个人权利避免仅基于自动化处理而不考虑其观点却会对其产生重大影响的决定。

9. 为了增强用户的信任,鼓励人工智能研发者、制造商和服务提供者以保障用户自由选择人工智能应用的方式设计其产品和服务,为人工智能应用提供可行的替代选择。

10. 所有人工智能研发者、制造商和服务提供者应采用各种算法监督措施,在一切应用的全生命周期内推广所有利益相关者的问责制,以确保遵守数据保护和人权法及其原则。

11. 在与人工智能应用相交互的场景中,数据主体应当享有知情权并有权获得所涉人工智能数据处理操作逻辑推演的相关信息。这应当该包括该等逻辑推演的后果。

12. 在基于影响个人意见与个人发展的技术的数据处理中,反对权应当予以确保。

人工智能与数据保护指南

三. 立法者与政策制定者指引

1. 遵循问责原则,采用风险评估程序和其他适当措施,例如行为守则和认证机制,可以提升对人工智能产品和服务的信任。

2. 在不损害法律保障的保密性的情况下,公共采购程序应当对人工智能研发者、制造商和服务提供者科加特定责任,包括透明度、事先评估数据处理对人权和基本自由的影响以及监督人工智能应用潜在的不利影响与后果 (以下简称算法监督8).

3. 应为监管机构提供足够的资源以支持和监测人工智能研发者、制造商和服务提供者的算法监督项目。

4. 过度依赖人工智能应用提供的解决方案,以及对于人工智能应用程序提出的挑战性决策的恐惧,可能会扭曲决策过程中的人类介入自主性。因此,应当确保决策过程中的人类介入以及不依赖人工智能建议结果的人类决策自由。

5. 当人工智能应用有可能对数据主体的人权和基本自由产生显著影响时,人工智能研发者、制造商和服务提供者应当咨询监管机构。

6. 应当鼓励数据保护监管机构与人工智能相关职能机构之间的合作,例如:消费者保护、竞争、反歧视、行业监管部门和媒体监管机构。

7. 应当建立适当的机制,以确保第II.6节中涉及的专家委员会的独立性。

8. 个人、团体和其他利益相关方应当充分知情并积极参与关于人工智能在塑造社会形态以及影响他们的决策过程中应该扮演什么角色的讨论。

9. 政策制定者应当在数字素养与教育领域投入资源,以提高数据主体对人工智能应用及其影响的认知和理解。他们还应当鼓励对人工智能研发者的专业培训,以提高他们就人工智能对个人和社会潜在影响的认知和理解。他们应当支持以人权为导向的人工智能研究。

脚注

人工智能与数据保护指南

1 目前人工智能的下述定义可在欧洲委员会网站上查阅 :https://www.coe.int/en/web/human-rights-rule-of-law/artificial-intelligence/glossary: “一整套科学、理论和技术,其目的是通过机器复现人类的认知能力。 作为示例,目前的研发指向能够赋予一台机器完成以前赋予人类的复杂任务。”

2 本指南遵循并以人工智能报告(《人工智能与数据保护:挑战与可能的补救措施》)为基础,可在网站上查阅:https://rm.coe.int/artificial-intelligence-and-data-protection-challenges-and-possible-re/168091f8a6。

3《个人数据自动化处理中的个体保护公约》CETS第223号修正议定书。

4 https://rm.coe.int/t-pd-2017-1-bigdataguidelines-en/16806f06d0。

5合成数据源自基于真实数据的数据模型。它们应当反映原始的真实数据。参阅经合组织有关合成数据的定义。2007年“统计术语表”:http://ec.europa.eu/eurostat/ramon/coded_files/OECD_glossary_stat_terms.pdf (“一种强调真实数据的保密而不是传播的方法论,发布源自一个或多个人口模型的合成数据”)。

6 这是忽略背景信息的风险,这些信息反映了应当使用所涉基于人工智能的解决方案的特定情形。

7 当最初为特定应用设计的人工智能模型被应用于不同的背景或目的时,就会发生这种情况。

8 关于算法监督的含义,也即在这些应用的全生命周期中引入与潜在不利影响和后果相关的问责制、认知和风险管理实践,亦可参见第40届数据保护和隐私专员国际大会(ICDPPC)通过的《人工智能伦理与数据保护宣言 》确立的第二项指导原则。另见人工智能报告(脚注2),第II.4节。

本文为个人数据自动化处理中的个体保护公约咨询委员会(第108号公约)中译本

相关推荐