谷歌在欧盟的主要隐私监管机构已展开调查,以查明该公司在使用个人信息训练生成式人工智能方面是否遵守了欧盟的数据保护法。
具体来说,它正在调查这家科技巨头是否需要进行数据保护影响评估(DPIA),以便主动考虑其人工智能技术可能对用于训练模型的个人的权利和自由构成的风险。
生成式人工智能工具因制造看似合理的谎言而臭名昭著。这种倾向,加上按需提供个人信息的能力,给其制造者带来了很大的法律风险。爱尔兰数据保护委员会 (DPC) 负责监督谷歌是否遵守欧盟的《通用数据保护条例》(GDPR),有权对任何已证实的违规行为处以最高相当于 Alphabet(谷歌母公司)全球年营业额 4% 的罚款。
谷歌已经开发了多种生成式人工智能工具,包括一系列通用大型语言模型 (LLM),并将其命名为Gemini(以前称为Bard)。该公司利用该技术为人工智能聊天机器人提供支持,包括增强网络搜索。这些面向消费者的人工智能工具的基础是谷歌 LLM PaLM2,该公司去年在其 I/O 开发者大会上推出了这款产品。
爱尔兰数据保护委员会表示,正在根据爱尔兰《2018 年数据保护法》第 110 条对谷歌如何开发这一基础 AI 模型进行调查,该法案将《GDPR》转化为国家法律。
GenAI 模型的训练通常需要大量数据,而 LLM 制造者获取的信息类型以及他们获取信息的方式和地点正因一系列法律问题(包括版权和隐私)而受到越来越严格的审查。
在后一种情况下,用于 AI 训练的材料中包含欧盟人民的个人信息,无论是从公共互联网上抓取的还是直接从用户那里获取的,都受欧盟数据保护规则的约束。这就是为什么许多 LLM 已经面临与隐私合规性相关的问题(以及一些 GDPR 执法),其中包括GPT (和 ChatGPT)的制造商OpenAI;以及开发Llama AI 模型的Meta。
埃隆·马斯克旗下的 X 还因使用用户数据进行 AI 训练而引发GDPR 投诉和 DPC 的愤怒——这导致了一场诉讼,X 承诺限制其数据处理,但没有受到制裁。不过,如果 DPC 确定其处理用户数据以训练其 AI 工具 Grok 违反了该制度,X 仍可能面临 GDPR 处罚。
DPC 对谷歌 GenAI 的 DPIA 调查是该领域的最新监管行动。
DPC 在一份新闻稿中写道:“法定调查涉及的问题在于,谷歌在处理与其基础 AI 模型 Pathways 语言模型 2 (PaLM 2) 开发相关的欧盟/欧洲经济区数据主体的个人数据之前,是否遵守了根据《通用数据保护条例》第 35 条 (数据保护影响评估) 可能需要进行评估的任何义务。”
报告指出,DPIA“在确保在处理个人数据可能导致高风险时充分考虑和保护个人的基本权利和自由方面至关重要”。
DPC 补充道:“此次法定调查是 DPC 更广泛努力的一部分,该努力与欧盟/欧洲经济区同行监管机构合作,规范在开发人工智能模型和系统时对欧盟/欧洲经济区数据主体的个人数据的处理。”他提到,欧盟的 GDPR 执法网络正在努力就如何最好地将隐私法应用于 GenAI 工具达成某种共识。
谷歌没有回答有关用于训练其 GenAI 工具的数据来源的问题,但发言人杰伊斯托尔 (Jay Stoll) 通过电子邮件发送了一份声明,其中谷歌写道:“我们认真对待 GDPR 规定的义务,并将与 DPC 进行建设性合作以回答他们的问题。”
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/gu-ge-genai-mian-lin-ou-zhou-yin-si-feng-xian-ping-gu-shen