加州州长加文·纽瑟姆否决了 SB 1047法案,许多人认为该法案将改变加州乃至整个国家的人工智能发展格局。周日公布的否决结果可能会让人工智能公司有机会证明他们能够主动保护用户免受人工智能风险的影响。
SB 1047 要求人工智能公司在开始训练模型之前为模型添加“终止开关”,实施书面安全协议并聘请第三方安全审计员。它还将赋予加州总检察长查阅审计报告和起诉人工智能开发商的权利。
一些人工智能行业资深人士认为,该法案可能会对人工智能发展产生寒蝉效应。许多业内人士感谢纽瑟姆否决该法案,并指出否决可以保护未来的开源开发。Meta 首席人工智能科学家、SB 1047 的直言不讳的反对者 Yann Le Cun在X (以前的 Twitter)上发帖称,纽瑟姆的决定是“明智的”。著名人工智能投资者、安德森霍洛维茨基金总经理马克·安德森表示,纽瑟姆站在“加州活力、经济增长和计算自由”一边。
其他业内人士也发表了自己的看法,他们表示,虽然人工智能领域的监管是必要的,但这不应该阻碍小型开发商和小型人工智能模型的蓬勃发展。
数据集成平台Qlik首席执行官迈克·卡彭 (Mike Capone) 表示:“核心问题不是 AI 模型本身,而是这些模型的应用。正如纽瑟姆指出的那样,较小的模型有时会被部署在关键的决策角色中,而较大的模型则处理更多低风险任务。这就是为什么我们需要关注 AI 的背景和用例,而不是技术本身。”他补充说,监管框架应该侧重于“确保安全和道德的使用”并支持最佳的人工智能实践。 Cours时代的 联合创始人吴恩达 (Andrew Ng) 也表示,否决权是“支持创新”的,并将保护开源开发。
并非只有企业对否决表示欢迎。乔治梅森大学梅卡图斯中心的人工智能和技术政策专家 Dean Ball表示,否决“对加利福尼亚州乃至整个美国来说都是正确的举措”。Ball 指出,该法案针对的模型规模阈值已经过时,不会涵盖OpenAI 的 o1等最新模型。
伊利诺伊大学格兰杰工程学院电气与计算机工程副教授拉夫·瓦什尼 (Lav Varshney) 指出,该法案对使用该技术的原始开发者的行为进行了惩罚。
“由于 SB 1047 对 AI 模型的下游使用和修改做出了规定,一旦模型脱离了原始开发者的掌控,就很难继续以开源方式进行创新,”Varshney 说。“让原始开发者和那些对 AI 进行微调以完成超出原始开发者知识(甚至想象力)的事情的人共同承担责任似乎更为合适。”
改进现有护栏
然而,否决权可能会让人工智能模型开发者加强他们的人工智能安全政策和护栏。
Domino 数据实验室人工智能战略主管 Kjell Carlsson表示,这为人工智能公司提供了一个机会,可以仔细审视其治理实践并将其嵌入到工作流程中。
“企业领导者应抓住这一机会,积极应对人工智能风险,保护其人工智能计划。企业不应等待法规来规定安全措施,而应在整个人工智能生命周期内制定强有力的人工智能治理实践:建立对数据、基础设施和模型访问的控制,进行严格的模型测试和验证,并确保输出的可审计性和可重复性,”卡尔森说。
人工智能治理平台Credo AI创始人 Navrina Singh在接受 VentureBeat 采访时表示,虽然 SB 1047 在听觉规则和风险分析方面提出了好的观点,但它表明人们仍然需要了解人工智能领域需要监管哪些方面。
Singh 表示:“我们希望治理成为人工智能创新的核心,但我们也相信,那些希望在人工智能领域取得成功的人希望以信任和透明度为先导,因为这是客户对他们的要求。”她补充说,虽然目前尚不清楚 SB 1047 的否决是否会改变开发商的行为,但市场已经在推动公司展现出值得信赖的形象。
他人的失望
然而,并非所有人都对纽森的决定表示赞赏,科技政策和安全组织也对这一决定表示谴责。
非营利组织“ Accountable Tech”的联合创始人兼执行董事妮可·吉尔(Nicole Gill )在一份声明中表示,纽森的决定“是对大型科技公司的巨大让步,也是对所有目前是人工智能行业无可争议的实验鼠的美国人的侮辱”。
吉尔说:“这项否决不会‘赋予创新权力’——它只会进一步巩固现状,即大型科技垄断企业被允许不顾我们的安全攫取利润,尽管他们的人工智能工具已经威胁到民主、公民权利和环境,并有可能造成其他未知的灾难性危害。”
人工智能政策研究所也表达了同样的看法,其执行董事丹尼尔·科尔森表示,否决的决定“是错误的、鲁莽的,与他所负责管理的人格格不入”。
这些组织表示,尽管公众要求控制人工智能的部分能力,但加利福尼亚州作为美国大多数人工智能公司的所在地,将允许人工智能不受限制地发展。
美国没有关于生成式人工智能的任何联邦法规。虽然一些州已经制定了关于人工智能使用的政策,但没有法律对该技术施加规则。该国最接近的联邦政府政策是总统乔·拜登的一项 行政命令 。该行政命令列出了机构使用人工智能系统的计划,并要求人工智能公司在公开发布之前自愿提交模型以供评估。OpenAI 和 Anthropic 同意让政府测试其模型。
拜登政府还表示,计划监控开放式重量模型以发现潜在风险。
原创文章,作者:大龄程序员,如若转载,请注明出处:https://www.dian8dian.com/jia-zhou-fou-jue-ren-gong-zhi-neng-fa-an-ke-neng-hui-rang