LinkedIn 可能已经在没有更新其条款的情况下利用用户数据训练了 AI 模型。
LinkedIn 的美国用户(欧盟、欧洲经济区或瑞士除外,这可能是由于这些地区的数据隐私规则)在设置屏幕上有一个选择退出的选项,显示 LinkedIn 会抓取个人数据来训练“内容创建 AI 模型”。这个选项并不新鲜。但正如 404 Media 首次报道的那样,LinkedIn 最初并没有更新其隐私政策来反映数据使用情况。
服务条款现已更新,但通常情况下,更新发生在重大变更(例如将用户数据用于此类新用途)之前。这样做的目的是让用户选择更改帐户或离开平台(如果他们不喜欢这些变更)。但这次似乎不是这样。
那么 LinkedIn 训练的是什么模型呢?该公司在问答中表示,他们拥有自己的模型,包括用于撰写建议和发布推荐的模型。但 LinkedIn 还表示,其平台上的生成式 AI 模型可能由“另一家提供商”训练,比如其母公司微软。
“与 LinkedIn 上的大多数功能一样,当您使用我们的平台时,我们会收集和使用(或处理)有关您使用该平台的数据,包括个人数据,”问答中写道。“这可能包括您对生成 AI(用于创建内容的 AI 模型)或其他 AI 功能的使用、您的帖子和文章、您使用 LinkedIn 的频率、您的语言偏好以及您可能向我们的团队提供的任何反馈。我们根据我们的隐私政策使用这些数据来改进或开发 LinkedIn 服务。”
LinkedIn 此前曾表示,它使用“隐私增强技术,包括编辑和删除信息,以限制用于生成式 AI 训练的数据集中包含的个人信息”。
要退出 LinkedIn 的数据抓取,请前往桌面版 LinkedIn 设置菜单的“数据隐私”部分,单击“用于生成式 AI 改进的数据”,然后关闭“使用我的数据训练内容创建 AI 模型”选项。您也可以尝试通过此表单更全面地选择退出,但 LinkedIn 指出,任何选择退出都不会影响已经进行的培训。
非营利组织开放权利组织 (ORG) 已呼吁英国独立数据保护权利监管机构信息专员办公室 (ICO) 调查 LinkedIn 和其他默认使用用户数据进行训练的社交网络。本周早些时候,Meta宣布,在与 ICO 合作简化退出流程后,它将恢复抓取用户数据进行 AI 训练的计划。
ORG 法律和政策官 Mariano delli Santi 在一份声明中表示:“LinkedIn 是最新一家被发现未经同意就处理我们数据的社交媒体公司。事实证明,选择退出模式再一次完全不足以保护我们的权利:公众不可能监视和追踪每一家决定使用我们的数据来训练人工智能的在线公司。选择加入同意不仅是法律规定的,也是常识性要求。”
爱尔兰数据保护委员会 (DPC) 是负责监督欧盟总体隐私框架 GDPR 遵守情况的监管机构,该委员会向 TechCrunch 表示,LinkedIn 上周通知其将于今日发布其全球隐私政策的澄清。
DPC 的一位发言人表示:“LinkedIn 告诉我们,该政策将为那些不希望自己的数据用于训练内容生成 AI 模型的成员提供退出设置。欧盟/欧洲经济区成员无法使用这一退出设置,因为 LinkedIn 目前没有使用欧盟/欧洲经济区成员数据来训练或微调这些模型。”
为了训练生成式 AI 模型,需要更多数据,这导致越来越多的平台重新利用或以其他方式重复使用其大量用户生成内容。有些平台甚至开始将这些内容货币化 – Tumblr 所有者 Automattic、Photobucket、Reddit 和 Stack Overflow 等网络都向 AI 模型开发人员授权数据。
并非所有用户都允许轻易退出。当 Stack Overflow宣布将开始授权内容时,一些用户删除了自己的帖子以示抗议 — —但后来这些帖子被恢复,而他们的帐户被暂停。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/linkedin-zai-geng-xin-fu-wu-tiao-kuan-qian-ceng-zhua-qu