欧盟人工智能法案:通用人工智能指导草案为大型人工智能遵守规定迈出了第一步

欧盟人工智能法案:通用人工智能指导草案为大型人工智能遵守规定迈出了第一步

根据欧盟《人工智能法案》,适用于通用人工智能模型提供商的行为准则初稿已经发布,同时还发布了反馈邀请——反馈截止日期为 11 月 28 日——起草过程将持续到明年,正式的合规期限将在未来几年内到来。

今年夏天生效的泛欧盟法律在基于风险的框架下规范人工智能的应用。但它也针对更强大的基础或通用人工智能模型(GPAI)制定了一些措施。这就是本《行为准则》的用武之地。

可能加入的包括GPT 模型制造商 OpenAI (该模型是人工智能聊天机器人ChatGPT 的基础)、谷歌及其Gemini GPAI、Meta 及其Llama、Anthropic 及其Claude ,以及法国的Mistral等其他公司。如果他们想确保自己遵守《人工智能法案》,从而避免因不合规而受到执法风险,他们将被要求遵守《通用人工智能行为准则》。

需要明确的是,该准则旨在为履行《欧盟人工智能法案》的义务提供指导。如果 GPAI 提供商认为他们可以通过其他措施证明合规性,他们可以选择偏离最佳实践建议。

该准则的初稿长达 36 页,但可能会更长——甚至可能很长——因为起草者警告说,它缺乏细节,因为这是“一个概述我们制定准则的指导原则和目标的高级起草计划”。

草案中充斥着一些“未解决的问题”,负责制定该准则的工作组尚未解决这些问题。征求来自行业和民间社会的反馈意见显然将在塑造尚未纳入的具体分项措施和关键绩效指标 (KPI) 内容方面发挥关键作用。

但该文件让人们了解,一旦相关合规期限适用,GPAI 制造商将会面临哪些情况(就期望而言)。

针对 GPAI 制定者的透明度要求将于 2025 年 8 月 1 日生效。

但对于最强大的 GPAI(法律定义为具有“系统性风险”),预期它们必须在生效后 36 个月(或 2027 年 8 月 1 日)遵守风险评估和缓解要求。

还有一个需要注意的问题是,该准则草案是在假设只有“少数”GPAI 制定者和 GPAI 具有系统性风险的情况下制定的。“如果这一假设被证明是错误的,未来的草案可能需要进行重大修改,例如,引入更详细的分层措施体系,主要针对那些提供最大系统性风险的模型,”起草者警告说。

在透明度方面,该准则将规定 GPAI 必须如何遵守信息规定,包括在版权材料领域。

其中一个例子是“子措施 5.2”,该措施目前要求签署方提供用于开发 GPAI 的所有网络爬虫的名称及其相关的 robots.txt 功能的详细信息,“包括在爬取时”。

GPAI 模型制定者继续面临有关他们如何获取数据来训练模型的质疑,版权持有者提起 多起诉讼,指控 AI 公司非法处理受版权保护的信息。

草案中规定的另一项承诺是要求 GPAI 提供商设立单一联系点和投诉处理机构,以便权利人能够“直接、迅速”地表达不满。

与版权相关的其他拟议措施涵盖 GPAI 需要提供的有关用于“训练、测试和验证”的数据源的文件,以及有关访问和使用受保护内容以开发通用 AI 的授权的文件。

系统性风险

最强大的 GPAI 还受《欧盟人工智能法案》的约束,旨在减轻所谓的“系统性风险”。这些人工智能系统目前被定义为使用 总计算能力超过 10^25 FLOPs 进行训练的模型。

《准则》列出了签署方应视为系统性风险的风险类型,包括:

  • 攻击性网络安全风险(例如漏洞发现)。
  • 化学、生物、放射和核风险。
  • “失去控制”(这里指的是无法控制“强大的自主通用人工智能”)和自动使用模型进行人工智能研发。
  • 说服和操纵,包括大规模的虚假信息/错误信息,可能对民主进程构成风险或导致对媒体失去信任。
  • 大规模歧视。

该版本的准则还建议,GPAI 制定者可以识别未明确列出的其他类型的系统性风险,例如“大规模”侵犯隐私和监视,或可能对公共健康构成风险的用途。该文件提出的一个未解决的问题是,哪些风险应优先添加到主要分类法中。另一个问题是系统性风险分类法应如何应对深度伪造风险(与人工智能生成的儿童性虐待材料和非自愿的亲密图像有关)。

该准则还旨在提供指导,以识别可能导致模型产生系统性风险的关键属性,例如“危险的模型能力”(例如网络攻击或“武器获取或扩散能力”)和“危险的模型倾向”(例如与人类意图和/或价值观不一致;有欺骗倾向;偏见;虚构;缺乏可靠性和安全性;以及抵制目标修改)。

虽然起草过程仍在继续,但仍有许多细节有待完善,但《准则》的作者写道,其措施、子措施和关键绩效指标应“相称”,特别注重“根据特定提供商的规模和能力量身定制,特别是资金资源不如人工智能发展前沿的中小企业和初创企业”。他们还补充道,还应注意“在适当情况下采用不同的分销策略(例如开源),以体现比例原则,同时兼顾利益和风险”。

草案提出的许多悬而未决的问题涉及如何将具体措施应用于开源模式。

框架内的安全性和保障性

该准则中的另一项措施涉及“安全与保障框架”(SSF)。GPAI 制定者将被要求详细说明其风险管理政策,并“持续、彻底地”识别其 GPAI 可能产生的系统性风险。

这里有一个有趣的子措施“预测风险”。这将要求签署方在 SSF 中“尽最大努力估计”他们预计何时开发一个触发系统性风险指标的模型的时间表——例如前面提到的危险模型能力和倾向。这可能意味着,从 2027 年开始,我们将看到尖端人工智能开发人员制定他们预计模型开发何时会跨越某些风险阈值的时间表。

此外,《准则草案》重点关注具有系统性风险的 GPAI,使用“最佳评估”评估其模型的能力和局限性,并应用“一系列合适的方法”来实现这一点。列举的例子包括:问答集、基准、红队和其他对抗性测试方法、人类提升研究、模型生物、模拟和机密材料的代理评估。

另一项关于“重大系统性风险通知”的子措施要求签署方在“有充分理由相信可能发生重大系统性风险”时,通知AI办公室(根据该法案设立的监督和指导机构)。

该法规还规定了“严重事件报告”的措施。

“签署方承诺识别和跟踪严重事件,只要这些事件源自具有系统性风险的通用人工智能模型,则应毫不拖延地记录和报告任何相关信息和可能的纠正措施,并向人工智能办公室和国家主管部门(视情况而定)报告,”协议写道——尽管有一个相关的未决问题要求就“严重事件意味着什么”征求意见。因此,在确定定义方面似乎还有更多工作要做。

准则草案还提出了针对严重事件可能采取的“纠正措施”等问题。其中还提出了“哪些严重事件响应流程适合公开重量或开源提供商?”等寻求反馈的措辞。

起草者最后总结道:“该准则的初稿是四个专业工作组对现有最佳实践进行初步审查的结果,是利益相关者对近 430 份意见书的咨询意见、提供商研讨会的回应、国际方法(包括 G7 行为准则、前沿人工智能安全承诺、布莱切利宣言以及相关政府和标准制定机构的成果),以及最重要的人工智能法案本身。”

“我们强调,这只是初稿,因此《守则》草案中的建议是临时的,可能会发生变化,”他们补充道。“因此,我们诚邀您提出建设性意见,我们将进一步制定和更新《守则》的内容,并努力在 2025 年 5 月 1 日之前制定出更详细的最终版本。”  

原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/ou-meng-ren-gong-zhi-neng-fa-an-tong-yong-ren-gong-zhi-neng

Like (0)
王 浩然的头像王 浩然作者
Previous 2024年11月16日
Next 2024年11月16日

相关推荐

发表回复

Please Login to Comment