LinkedIn开始在用户个人数据上训练GenAI-恕不另行通知

智能真的很好说 2024-09-21 14:40:41

任何不希望微软旗下的社交网络及其“附属公司”窃取其帖子的人都必须打开设置并明确选择退出。

Unsplash 上的 Greg Bulla 拍摄

今天进入您的 LinkedIn 设置,您可能会注意到一个小但可能令人担忧的新选项。

该社交网络悄然推出了一项功能,可以使用用户的个人数据训练生成人工智能(GenAI)模型,并默认开启该功能。

这意味着 LinkedIn 8 亿用户中的很大一部分现在让 LinkedIn、微软及其“附属公司”使用他们的数据和内容来教其 GenAI 模型如何执行任务。

居住在欧盟、欧洲经济区或瑞士的任何人的数据都不会被收集。 LinkedIn 尚未证实为何放过了欧洲公民,但这可能是由于《欧盟人工智能法案》引入的规则所致。

LinkedIn 在其条款和条件中写道: “在 LinkedIn 训练生成式人工智能模型时,我们力求最大限度地减少用于训练模型的数据集中的个人数据,包括使用隐私增强技术从训练数据集中编辑或删除个人数据。”

它补充道:“与 LinkedIn 上的大多数功能一样,当您使用我们的平台时,我们会收集和使用(或处理)有关您使用该平台的数据,包括个人数据。这可能包括您对生成式人工智能(用于创建内容的人工智能模型)或其他人工智能功能的使用、您的帖子和文章、您使用 LinkedIn 的频率、您的语言偏好以及您可能向我们团队提供的任何反馈。”

LinkedIn 及其所有者微软并不是唯一被允许使用个人数据来训练 GenAI 模型的组织。

该社交网络补充道:“LinkedIn 用于支持生成式人工智能功能的人工智能模型可能会由 LinkedIn 或其他提供商进行训练。” “例如,我们的一些模型是由微软的Azure OpenAI服务提供的。”

为什么欧盟公民不受 LinkedIn 的 GenAI 培训?

欧盟人工智能法案规定了高风险人工智能系统训练、验证和测试中使用的数据集的数据治理和管理实践。尽管内容生产模式不太可能被视为高风险,但 LinkedIn 可能已决定简单地回避欧洲的任何潜在问题。

苏格兰格拉斯哥的科技政策专家希瑟·伯恩斯 (Heather Burns)告诉The Stack: “事实上,LinkedIn 并未在欧盟、欧洲经济区或瑞士推出这种生成式人工智能模型,这些地方无需选择同意,同时也赋予用户指出公司持有的关于他们的不正确信息的权利——也许更多地说明了生成人工智能模型的准确性,而不是欧盟隐私法规。”

在讨论英国应如何应对 LinkedIn 的更新时,伯恩斯补充道:“欧盟隐私模式的基本原则是‘首先获得个人同意,然后使用他们的数据’。”当然,英国已经不再属于欧盟,并且一直在以令人担忧的速度朝着美国模式“对人们的数据做任何你想做的事,他们的同意并不重要!”的模式发展。

“话虽这么说,英国的数据保护标准仍然源自欧盟模式。LinkedIn 仍然需要获得选择同意才能使用这些数据。所以我很想看看他们在这方面的功课,包括他们的数据保护影响评估。

“信息专员办公室(ICO)会比我更好奇地看到这一点。Meta最近与ICO就其自身使用用户数据来训练生成性人工智能的问题产生了一些分歧,因此LinkedIn真的没有理由不知道这个故事如何结束的。

“这是一个很好的提醒,如果公司在决定快速行动并打破常规之前,做好基本的尽职调查并真诚地与监管机构合作,那么许多隐私问题,包括 LinkedIn 刚刚造成的问题,都是可以轻松避免的。”

领先的知识产权律师事务所EIP的高级助理律师 Ellen Keenan-O'Malley 表示,ICO 决定避免阻止 Meta 等公司使用用户数据训练 GenAI 工具,“将使一些公司认为他们可以效仿。”

“然而,ICO 明确表示,此类处理尚未获得监管部门的批准,ICO 将继续进行监控,以确保 Meta ‘展现出持续的合规性’,”她说。 “因此,我认为 LinkedIn 对用于训练 AI 模型的用户数据采取选择退出与选择加入的方法的决定仍可能面临一些强烈反对,无论是来自其用户还是来自 ICO。”

在企业数据上训练 GenAI 模型的风险

对于企业来说,允许数据被抓取并用于人工智能训练的风险包括从他们身上学到的模型泄露公司机密的可能性。

Keystone Law 的技术合伙人 Vanessa Barnett 告诉 The Stack:“欧盟内外的大多数人工智能管理工作都是由《欧盟人工智能法案》推动的。企业(和个人)现在越来越需要关注他们的个人和公司数据的使用方式。

“从企业的角度来看,数据模型训练意味着它可以根据提示重新创建数据。因此,能够保护业务和个人数据免遭模型泄露至关重要。除此之外,仍有英国 GDPR 合规性要做:LinkedIn 只能将个人数据用于新目的,前提是这与原始目的兼容,或者得到用户的同意。”

对于Harper James律师事务所的高级数据保护和隐私律师 Lillian Tsang 来说,“严重依赖 LinkedIn 的企业”应该“关注”专有信息、业务策略和其他竞争秘密的暴露,

她说:“这会损害生意吗?如果知道从 LinkedIn 抓取的业务数据被用来训练生成式人工智能,那么它就可以实现。这可能会损害企业的声誉,以至于客户或利益相关者可能会失去对一家似乎没有优先考虑数据保护的公司的信任,而这正是 GDPR 的根本目的。”

Zama首席运营官 Jeremy Bradley 建议企业重点探索“保护客户及其个人信息的新兴解决方案”。

他表示:“企业应该关注 LinkedIn 默认情况下在未经用户明确同意的情况下使用个人数据来训练生成人工智能模型,因为这会引发严重的数据隐私问题。”

“加密技术的进步——例如全同态加密(FHE)——可以帮助企业遵守全球数据保护法,同时也允许企业负责任地利用人工智能技术的优势。”

我如何选择退出 LinkedIn GenAI 个人数据培训?

任何不想将数据交给人工智能培训师的人都可以选择退出,方法是转到设置的“数据隐私”部分,单击“用于生成人工智能改进的数据”,然后在标记为“使用我的数据来训练内容创建AI模型”的选项上移动滑块。

LinkedIn 发言人告诉The Stack :“我们正在做出改变,让 LinkedIn 用户在如何使用数据来训练生成式人工智能技术方面拥有更多选择和控制权。我们正在推出带有人工智能的新工具,默认情况下所有会员都会受益,同时也确保那些有特定隐私偏好的人可以轻松选择退出。人们可以选择退出,但他们来到 LinkedIn 是为了寻找工作和人际网络,而生成式人工智能是我们帮助专业人士实现这一变革的一部分。

“目前,我们不会启用来自欧洲经济区或瑞士的会员数据的生成人工智能培训,并且不会向这些地区的会员提供设置,直至另行通知。”

0 阅读:1

智能真的很好说

简介:感谢大家的关注