最新英特尔的人工智能隐私政策白皮书(中文版)
点击上方关注,All in AI中国
在人工智能世界中保护个人的隐私和数据
两项技术趋势
在英特尔,我们相信人工智能(AI)在改善人们生活方面的巨大潜力。在全球范围内推动人工智能和数字化发展的两个趋势是:1.从边缘到云的数据分析;2.增加数据收集和创建机制。
关于人工智能和隐私的五个基础观察
人工智能代表了一个新的隐私领域,因为它需要自主决定,这可能会影响到公民。以下观察结果决定了隐私对AI的影响:
a)增加的自动化不应转化为更少的隐私保护;
b)可解释性需要更多的问责制;
c)道德数据处理需要建立在隐私之上;
d)隐私保护我们是谁(别人如何看待我们以及我们如何看待自己);
e)加密和去中心化有助于解决AI中的隐私问题。
六项政策建议
- 新的立法和监管举措应该是全面的、技术中立的,并且支持免费的数据:横向立法可以包括数据使用和不属于现有部门法律且仍然无法预见的技术。
- 组织应采用基于风险的问责制方法,实施技术(隐私设计)或组织措施(产品开发生命周期和道德审查委员会),以最大限度地降低AI中的隐私风险。
- 应加强自动决策,同时加强保护个人的保障:合法利益应被视为人工智能数据处理的法律依据。行业和政府应该在算法可解释性和基于风险的人为监督程度上共同努力,以尽量减少自动决策对公民的潜在不利影响。
- 政府应促进数据的获取,例如,开放政府数据,支持创建可供所有人使用的可靠数据集,促进数据共享的激励,投资制定自愿性国际标准(即算法可解释性)和促进数据集的多样性。
- 安全方面的资金研究对于保护隐私至关重要:在同态加密等领域,可以最大限度地减少对个人数据的访问并增强保护。
- 它需要数据来保护数据:检测偏见或网络威胁并保护个人数据,AI需要处理个人数据。
I.两项技术趋势
由于其应用的巨大潜力,人工智能(AI)在公众辩论中占据了突出地位.1我们所处的数字社会的创新令人震惊:自主技术被用于新的生命增强和可能挽救生命的用途,如作为疾病检测、精准医、驾驶辅助、提高生产力、工作安全和使教育更容易获得。
由于增加的计算能力支持复杂算法从更大的数据集中提取有意义的信息,因此可以实现这些进步。计算能力和数据是人工智能的推动者。数据代表了我们当代世界的结构,其数量在过去几年呈指数增长。一些人估计每天会产生2.5个五十亿字节的新数据,更令人惊讶的是,所有可用数据的90%是在2015年之后生成的。
在这样一个数据密集型社会中,两种趋势将是未来的发展:
1)边缘到云数据分析:上述环境的基本构建模块是数据中心和网络,为智能家居和工厂,自动驾驶汽车和无人机等数百万个连接的“边缘设备”提供服务。这些端点利用不断增强的连接功能(例如未来的5G通信)和计算能力来执行分析工作负载,从数据集中推断出价值。数据处理和分析跨越基础架构、边缘、网络和数据中心。
2)增加数据收集和创建机制:个人数据不仅仅是从为特定用途提供数据的个人那里收集的,而且还通过连接设备中的传感器观察和收集,并通过进一步的自动化处理得出或创建。事实上,直接来自个人的数据百分比与我们日益联系的社会中收集的信息相比正在减少,并通过机器学习技术推断出来与开发和采用基于人工智能的解决方案相关的前所未有的机遇正在吸引政策制定者和监管机构关注对公民和社会的影响,以及政府和国家当局可能采取的行动。隐私和数据保护是这些影响和可能的政府行为的关键组成部分。人工智能的兴趣正在全球范围内增长,许多主要经济体已经或正在制定其国家人工智能战略。
男性机器人的3d效果图。
II.五个基本观察
a.人工智能和隐私
在很大程度上由于这两种趋势,越来越多的自主和无处不在的技术利用来自多个来源的大型数据集和数据来近乎实时地进行自主确定。在某些情况下(即银行业,人力资源,交通运输),这些决定可能会影响个人,他们的私生活,他们的身体安全,他们在社会中的地位以及他们与他人的互动。政府必须分析这种自动化决策对隐私的影响。
由于自主决定(例如歧视和限制选择和可能性)而对个人造成的潜在伤害将产生一些独特的情况,公共和私人组织在制定其隐私政策和战略时必须处理这些情况。下面我们将介绍一些观察结果,这些观察结果可以为我们的人工智能和隐私方面的工作。增加自动化不应转化为更少的隐私保护。
经合组织公平信息实践原则(FIPPs)激发了过去四十年来隐私和数据保护领域的立法.英特尔呼吁政策制定者和行业“重新思考隐私”现在比以往任何时候都更有效,因为压力越来越大这些原则(“数据保护的全球通用语言”)所适用的原则。 FIPP已经设法适应技术变化,仍然提供有价值的指导,因为它们反映了个人与个人数据的关系以及组织保护数据的责任的长期,广泛接受的价值观。在英特尔,我们认为应将FIPP视为一个杠杆系统,以便在特定数据应用的背景下提供最佳保护.当某些FIPP不太有用时,例如目的规格和收集限制,其他FIPP可能需要更多投资。关于人工智能,应该把重点放在安全保障和问责制的FIPP上。
b.可解释性需要更多的责任
自动化的决定将对人们的生活和自我决定的可能性产生影响。深度学习技术(今天广泛用于计算机视觉、自然语言处理或面部识别等应用)使用大型数据集来迭代训练多层神经网络- 一个受人类大脑启发的过程。这些任务的复杂性和抽象性导致了驱动算法结果的因素难以理解并因此解释的情况。透明度原则将受到挑战,因为参与决策的逻辑将难以辨别。虽然一些学者假设欧盟GDPR中隐含存在“解释权”,但实施人工智能解决方案的组织应该能够证明他们拥有适当的流程、政策和资源,以最大限度地降低隐私风险和对个人的不利影响。
负责任的风险管理实践要求组织自己负责制定适当的技术和组织措施,以解决客户、业务合作伙伴和社会的隐私和数据保护问题。问责制始于组织承诺创建实施隐私的工具和培训,促进内部监督和外部验证的系统,并确保补救和执行的手段。隐私设计方法,在整个过程中嵌入隐私影响评估设计和生产过程,是问责制的一个很好的例子,应该适用于整个AI生态系统。
c.道德数据处理建立在隐私之上
英特尔长期以来一直在推动创新和道德数据的使用,以实现其对个人生活的积极影响。数字社会的不断发展恰逢一系列社会文化转变,例如从人类自治到人与机器的融合。同样,尊严、自由、民主、平等、自治和正义等传统价值观是围绕数字伦理的讨论的一部分。今天的隐私和数据保护代表了我们现代社会的内在和基本概念,使个人能够自由选择和使用控制。保护个人及其数据超出了法律合规要求:它意味着接受社会价值观并努力建立对技术及其对人的积极影响的信任。
d.隐私正在保护我们自己
隐私要求数据既可靠又不会用于伤害个人。隐私旨在防止未经授权的访问、修改和丢失个人数据。它需要尊重私人和家庭生活、家庭和通信的保密性。人工智能技术及其创建图像、视频和声音等数据的潜力正在使辩论远离识别或未经授权处理个人身份信息的纯粹风险。人工智能正以两种特定方式增加个人风险,影响他人如何看待我们,以及我们如何看待自己。
别人如何看待我们:人工智能可以操纵个人及其现实,创造虚假信息,例如对人的虚假身体或心理预测。保护个人数据的真实性要求公民有权控制其姓名、形象或身份(人格权)的使用。AI可以增加创建关于个人的虚假信息的能力,这些信息越来越可被他人认可,并且可能影响人们的感知和对待方式。出于这些原因,保持人格的真实性代表了我们社会的关键隐私优先事项。
我们如何看待自己:人工智能技术以前所未有的深度,提高了对人们进行精确的评估并从中获得有意义的见解的能力。组织最终可能比人们自己更了解或预测个人的行为。一些恶意的组织和政府可以利用这种能力,针对公民并改变他们对现实的看法。这可能导致“可编程公民”情景,其中不恰当地使用人工智能可以影响个人的选择(例如,通过虚假新闻进行选举)或修改他们认同的群体(例如,用于控制和监视目的)非民主政权)。
e.更强的加密和去中心化有助于解决隐私问题
数十年来,数据的保密性、完整性和准确性一直是网络安全实践的关键目标,并已在所有隐私法律框架中进行了考虑。随着在人工智能空间中收集、处理和推断的数据量不断增加,强大的加密和识别(完全匿名化)技术可以保护个人隐私,同时实现更高级别的安全性。实现识别将越来越需要复杂的实践,因为在深度学习驱动的环境中,重新识别将越来越有可能。过去几年中出现了一些隐私技术作为可行的解决方案,以最大限度地降低隐私风险,增加“噪音”来扰乱个人数据。在学术界和研究界,同态加密似乎特别有前景,因为它允许对加密数据进行计算,因此能够实现人工智能任务,无需传输个人信息。
机器人学习或解决问题
III.六项政策建议
本文旨在为英特尔与政策制定者和监管机构的持续合作提供信息,帮助他们找到解决隐私问题的有效解决方案。英特尔致力于开发“边缘到云”的硬件和软件解决方案,使人工智能能够实现改善人们生活的潜力。与此同时,英特尔致力于让公民从这些创新数据用途中受益,同时相信他们的数据是以道德,受保护和隐私保护的方式处理的。
1.新的立法和监管举措应该是全面的,技术中立的,并且应该能够免费提供数据。
为了应对数字社会的复杂性并跟上技术进步的步伐,隐私立法应该是全面的,以避免法律漏洞,并涵盖目前不属于现有部门法或仍未预见到的数据使用和技术。专门针对AI的隐私法可能无法确保足够的灵活性来通过时间的考验。相反,全面的横向立法应该基于FIPPs,并提供灵活性,以便在其他人不能充分保护个人隐私时增加某些FIPP的保护。目的规格,收集限制和开放性等FIPP将受到自主技术的挑战;因此,任何拟议的法律都应侧重于允许安全保障,个人参与和增加组织问责制的有效解决方案。FIPPs的历史- 它激发了世界各地的隐私立法- 表明了长期原则已经存在并且可以根据技术进步使用和重新解释,以制定技术中立法律。
此外,处理数据并跨越国界移动数据的能力对于开发新技术至关重要。数字数据的全球价值在过去十年中呈指数增长,占全球GDP的数万亿美元。因此,立法举措应在适当的保障措施下促进无阻碍的跨境数据流动。
对于个人,与此同时,我们承认政府可能有许多合理的理由要求在其国家内存储数据副本。在这些情况下,不会阻止政策制定者支持受保护的数据自由并限制数据本地化要求。
2.组织应采用基于风险的问责制方法
问责制可以被描述为负责组织证明已采取适当措施以最大限度地降低隐私和安全风险的能力。应根据每个业务的需求以及与执行的数据处理相关的特定风险来定制这些技术或组织措施。因此,监管机构可以将问责措施视为法律合规的证据,或者至少是数据泄露情况下的缓解因素。
从技术角度来看,将隐私嵌入到AI解决方案(隐私设计)的开发中是可能的。例如,匿名视频分析软件可以提取信息,将其存储为日志文件并丢弃图像。面部或车牌的图像模糊可以最大限度地降低将识别者与个人联系起来的风险。制定自愿国际标准以指导共同的隐私设计方法可以实现跨多个司法管辖区的一致性。此外,识别和加密实践已经证明在解决隐私和安全问题方面是有效的,因为它们仍然可以实现计算任务,而不会将数据暴露给未经授权的访问、修改、丢失或删除。这些做法在医疗保健部门至关重要,医疗信息代表敏感数据,如果误用,可能会伤害患者或使他们受到歧视。
负责任的公司已经开发了产品开发生命周期,其中包括影响评估和平衡测试,以测量基于人工智能的技术的隐私和安全风险。这些评估是负责任的组织可以通过设计实现隐私的手段。整个制作过程从设计到市场发布的过程,工程师和分析师在每个步骤评估对最终用户可能产生的意外后果,并建议其他功能或替代组织解决方案以最大限度地降低这些风险。例如,研究人员可能会调整他们的数据管理实践,直到他们了解这些数据的特定用途的含义;他们可能会在将信息传递给其他数据科学家之前对其进行细分或删除;他们可以将数据存储在几个高度安全的位置,访问仅限于一小组用户。
负责任的组织还需要有关这些设计流程的治理结构。隐私意识和道德使用数据已成为组织高级管理层的优先事项。在组织建立的道德委员会或道德审查委员会中,越来越多地讨论未来的技术方案,以解决对建立和加强公民信任至关重要的产品所固有的道德问题。
英特尔已经采取了所有上述措施的重要步骤,并且认为全面的行业应采用类似的方法。
3.应加强自动决策,同时加强保护个人的保障措施
几十年来,“通知和同意”模型试图提供个人参与的FIPP。它是一种有价值的工具,可以赋予公民权力并使他们能够控制数据,但由于个人需要承担巨大的负担才能充分了解与他们相关的信息是如何被收集、处理和使用的。不断变化的技术环境表明,在许多数据收集和创建环境中使用通知和同意将越来越困难,因此其他法律依据应被视为合法的处理依据。处理个人数据(控制器或处理器)的实体的合法利益应与个人(数据主体)的合法期望相平衡。很好地确定了合法利益,如个人或网络的物理安全和信息安全应在适当情况下补充同意。当无法获得真正的明确同意时,合法利益可以作为数据处理的有效法律基础。它不代表处理数据的空白授权,但它与提供给个人的其他实质性权利(访问,更正,删除,可移植性)和组织义务(如安全保障和问责制方法)协同工作(如下所述)款)
自动决策不应该被先验地限制,因为这种方法可能会影响创新并可能阻止公民改善人工智能应用程序。例如,对欧盟GDPR第22条的限制性解释(禁止仅基于自动决策的确定)可能会对自动驾驶等自主技术的基本功能和未来发展产生负面影响。在这个例子中,诸如同意或合同之类的法律基础例外可能不涵盖涉及乘客,其他司机和/或行人的所有情况。
不同程度的人类参与(人类监督)可以根据不同的自主功能进行调整。应该设计,构建和部署AI系统,以便为那些为决策影响的个人提供更高风险的AI应用程序控制和判断人类。我们认为,基于风险的人为监督程度可以代表一种实用的解决方案,允许创新使用人工智能,并确保在必要时控制自主决策。基于人工智能的工业质量控制机制在挑出有缺陷的产品时可能不值得人为监督。相反,如果算法排除了工作选择程序中的候选人或患者的治疗资格,那么个人和公共利益的期望在某种程度上会使人参与或监督决策。有问责的组织将主动寻求解决方案,以确保根据个人的潜在风险实现适当程度的人为干预。
4.政府应促进获取数据
访问大型可靠的数据集对于AI的开发和部署至关重要。改善可靠数据的获取将有利于提高设计的竞争力和创新性,从而更好地实现公共政策优先事项,并提高公民可获得的产品和服务的质量和数量。政府的举措旨在改善目前的情况:
a)在结构化和可访问的数据库中提供公共信息来源(政府公开数据)。
b)积极支持创建可靠的数据集(包括个人的个人信息),这些数据集可由所有AI开发人员、初创企业以及更广泛的行业用于测试自动化解决方案并对其算法质量进行基准测试。
c)促进公共和私营部门之间以及行业参与者之间数据共享的激励措施。与网络安全空间中针对威胁信息所做的类似,适当共享和受保护的数据将提高意识并改善整个自动化环境的隐私。一个很好的例子可能是政府资助创建API(应用程序编程接口)以允许动态访问数据。
d)促进建立国际自愿标准,以便更容易地分享信息,同时注意哪些数据字段可以包含个人信息(以便可以对隐私问题进行审查);为负责任的数据共享方法提供指导;并且针对不同的AI实现的de ne算法可解释性。
e)促进数据集的多样性。算法设计中可能存在的偏差会影响用户对技术的不信任。更大的多样性将降低意外偏见的风险。在用于医学的AI中,重要的是将来自少数民族的数据包括在训练数据中,因此结果更准确并且不排除对社会的某些部分进行适当的医疗。研究组织在国际上传输数据的能力增强了这一机会,政府应该鼓励跨境数据流。
5.资金安全研究对于保护隐私至关重要
人工智能在过去几年中的进步速度前所未有。但是,仍需要做更多的工作来提高数据中心和边缘设备的计算能力、能源效率和连接性。在同态加密等领域需要进行更多的研究,这将允许从加密数据中提取有意义的信息,而无需披露个人信息,因此,将保护个人的隐私。
6. 需要数据来保护数据
人工智能的巨大潜力还包括部署分析以支持和服务公共政策优先事项(如隐私,数据保护和网络安全)的可能性。事实上,算法可以帮助检测意外的歧视和偏见,身份盗窃风险或网络威胁。人工智能为组织提供了预防和管理风险的能力,包括大规模隐私泄露的威胁。通过这种方式,使用这些数据(其中一些将是个人数据)实际上对隐私产生了积极的积极影响。
IV.结论
如果人工智能的好处及其众多应用看起来是无可争议的,那么实际上需要进一步辩论,以解决与使用人工智能有关的个人潜在的无意识的社会后果和风险。 本文概述了人工智能的某些独特特征如何导致特定的隐私风险。承认这些担忧,我们相信本文所述的基础观察将有助于实现人工智能的全部潜力。这六项政策建议清单旨在与政策制定者、监管机构和志同道合的组织展开富有成效的讨论,这些组织正在探索数据保护和隐私挑战的公共政策解决方案。欢迎有机会进一步讨论这些问题,并收到有关我们提案的反馈意见。英特尔随时准备与所有感兴趣的利益相关方密切合作,共同开发人工智能创新和隐私的可行途径。
原版白皮书:https://blogs.intel.com/policy/files/2018/10/Intels-AI-Privacy-Policy-White-Paper-2018.pdf