数据隐私一直是一个长期存在的问题,继续挑战着数据行业。让我们了解人工智能世界的快速发展如何加剧了对数据隐私的担忧。
图片由作者提供 |Midjourney 和 Canva
近年来,关于人工智能的道德和负责任发展的讨论获得了巨大的关注,这是正确的。此类讨论旨在解决无数风险,包括偏见、错误信息、公平性等。
虽然其中一些挑战并不是全新的,但对人工智能应用的需求激增无疑放大了这些挑战。数据隐私是一个持续存在的问题,随着生成式人工智能的出现,它变得越来越重要。
麻省理工学院开放纪录片实验室研究员哈尔西·伯贡德(Halsey Burgund)的这一声明凸显了局势的严重性。– “人们应该将一个人在互联网上自由发布的所有内容视为潜在的训练数据,供某人做某事。”
时代变迁,措施也随之变化。因此,让我们了解其影响,并了解如何处理数据隐私带来的风险。
是时候提高警惕了每个处理用户数据的公司,无论是以收集和存储数据、执行数据操作和处理数据以构建模型等形式,都必须注意各种数据方面,例如:
数据从何而来,又要去哪里?它是如何纵的?谁在使用它以及如何使用它?简而言之,注意数据交换的方式以及与谁交换数据至关重要。
每个共享数据并同意使用数据的用户都必须注意他们愿意共享的信息。例如,如果一个人应该收到个性化的推荐,他们需要自在地共享数据。
GDPR 是黄金标准!!当涉及 PII(即个人身份信息)时,管理数据变得高风险。根据美国劳工部的规定,它主要包括直接识别个人的信息,例如姓名、地址、任何识别号码或代码、电话号码、电子邮件地址等。有关 PII 的更细致的定义和指南,请参阅此处。
为了保护个人数据,欧盟颁布了《通用数据保护条例》(GDPR),为存储和收集欧盟公民数据的公司制定了严格的问责标准。
发展快于监管从经验上看,任何技术创新和突破的发展速度都远远快于当局能够预见其关注点并及时管理的速度。
那么,在监管赶上快节奏的发展之前,人们会怎么做呢?让我们来了解一下。
自动调节解决这一差距的一种方法是建立内部治理措施,就像公司治理和数据治理一样。这相当于尽你所能拥有你的模型,并与已知的行业标准和最佳实践相结合。
这种自我监管措施是保持高标准的诚信和以客户为中心的一个非常有力的指标,这可以成为这个竞争激烈的世界中的差异化因素。采用自律章程的组织可以将其作为荣誉徽章佩戴,并获得客户的信任和忠诚度——这是一项巨大的壮举,因为在众多选项中,用户的转换成本很低。
构建内部 AI 治理措施的一个方面是,它使组织保持在负责任的 AI 框架的道路上,因此当法律法规到位时,它们可以为轻松采用做好准备。
规则必须对每个人都是一样的从理论上讲,设置优先级是好的。从技术上讲,没有一个组织能够完全预见这一切并保护自己。
另一个与自我监管相悖的论点是,每个人都应该遵守相同的规则。没有人愿意通过过度监管来破坏即将到来的监管,从而阻碍他们的业务增长。
隐私的另一面许多参与者可以在维护高隐私标准方面发挥作用,例如组织及其员工。然而,用户扮演着同样重要的角色——是时候提高警惕并培养意识了。让我们在下面详细讨论它们:
组织和员工的作用这些组织已经创建了一个责任框架,以提高他们的团队的敏感度,并建立对提示模型的正确方法的认识。对于医疗保健和金融等行业,通过输入提示共享的任何敏感信息也是一种侵犯隐私的形式——这一次是在不知不觉中,而是通过员工而不是来自模型开发人员。
用户角色从本质上讲,如果我们自己将此类数据输入此类模型,则隐私不会成为问题。
图片由作者提供
大多数基础模型(类似于上图所示的示例)都强调聊天记录可用于改进模型,因此用户必须彻底检查设置控制,以允许适当的访问以促进其数据隐私。
人工智能的规模用户必须访问并修改每个设备的每个浏览器的同意控制,以阻止此类违规行为。然而,现在想想大型模型,它们几乎通过所有互联网扫描这些数据,主要包括每个人。
这种规模成为一个问题!!
正是大型语言模型通过访问比传统模型高几个数量级的训练数据而获得优势的原因,同样的规模也带来了巨大的问题,也引发了隐私问题。
Deepfakes – 一种变相的隐私泄露形式最近,发生了一起事件,一名公司高管指示其员工向某个账户进行数百万美元的交易。在持怀疑态度之后,该员工建议安排一个电话来讨论这个问题,之后他进行了交易——后来才知道电话中的每个人都是深度伪造的。
对于不熟悉的人来说,政府问责局将其解释为——“看似真实但已被人工智能操纵的视频、照片或音频记录。底层技术可以替换人脸、操纵人脸表情、合成人脸和合成语音。Deepfakes 可以描绘某人似乎在说或做一些他们从未说过或做过的事情。
从修辞上看,深度伪造也是侵犯隐私的一种形式,相当于身份盗窃,不良行为者假装成他们不是的人。
有了这种被盗的身份,他们可以推动决策和行动,否则这些决策和行动就不会发生。
这对我们来说是一个至关重要的提醒,即坏行为者(即攻击者)通常远远领先于处于防御状态的好行为者。优秀的参与者仍在争先恐后地控制损害,并确保采取强有力的措施来防止未来的事故。
Vidhi Chugh 是一位人工智能战略家和数字化转型领导者,致力于产品、科学和工程的交叉领域,以构建可扩展的机器学习系统。她是一位屡获殊荣的创新领袖、作家和国际演讲者。她的使命是使机器学习民主化,并打破行话,让每个人都成为这一转型的一部分。
原文标题:Understanding Data Privacy in the Age of AI
原文链接:https://www.kdnuggets.com/understanding-data-privacy-in-the-age-of-ai
作者:Vidhi Chugh
编译:LCR