多年来,技术专家一直在敲响警钟,警告先进的人工智能系统可能给人类造成灾难性的破坏。
但到了 2024 年,这些警告声被科技行业所推广的生成式人工智能的实用而繁荣的愿景所淹没——这一愿景也让他们的钱包受益。
那些警告人工智能将带来灾难性风险的人通常被称为“人工智能末日论者”,尽管他们并不喜欢这个名字。他们担心人工智能系统会做出杀人的决定,被强者用来压迫民众,或者以某种方式导致社会崩溃。
2023 年,我们似乎正处于技术监管复兴时代的开始。人工智能末日和人工智能安全——一个更广泛的主题,可能涵盖幻觉、内容审核不足以及人工智能危害社会的其他方式——从旧金山咖啡馆讨论的小众话题变成了 MSNBC、CNN 和《纽约时报》头版上的对话。
总结一下 2023 年发出的警告:埃隆·马斯克和 1000 多名技术专家和科学家呼吁暂停人工智能开发,要求世界为该技术的巨大风险做好准备。不久之后,OpenAI、谷歌和其他实验室的顶尖科学家签署了一封公开信,称应该更加重视人工智能导致人类灭绝的风险。几个月后,拜登总统签署了一项人工智能行政命令,总体目标是保护美国人免受人工智能系统的侵害。2023 年 11 月,全球领先的人工智能开发商 OpenAI 背后的非营利董事会解雇了 Sam Altman,声称其首席执行官以撒谎而闻名,不能信任他掌握像通用人工智能 (AGI) 这样重要的技术——曾经是人工智能的想象终点,意味着系统实际上表现出自我意识。(尽管现在这个定义正在发生变化,以满足谈论它的人的业务需求。)
有一瞬间,似乎硅谷企业家的梦想要被整个社会的健康放在第一位。
但对于那些企业家来说,有关人工智能末日的叙述比人工智能模型本身更令人担忧。
作为回应,a16z 联合创始人马克·安德森 (Marc Andreessen) 于 2023 年 6 月发表了《为什么人工智能将拯救世界》,这是一篇长达 7,000 字的文章,驳斥了人工智能末日论者的议程,并对这项技术的发展提出了更为乐观的愿景。
安德森在文章中表示:“人工智能时代已经到来,人们都惊慌失措了。幸运的是,我在这里带来了好消息:人工智能不会毁灭世界,事实上,也许可以拯救世界。”
在他的结论中,安德森为我们对人工智能的恐惧提供了一个便捷的解决方案:快速行动,打破常规——基本上,这种理念也定义了 21 世纪所有其他技术(及其伴随的问题)。他认为,应该允许大型科技公司和初创公司尽可能快速、积极地开发人工智能,几乎没有监管障碍。他说,这将确保人工智能不会落入少数几家强大的公司或政府手中,并使美国能够有效地与中国竞争。
当然,这也会让 a16z 的众多人工智能初创公司赚更多的钱——在收入差距极大、流行病和住房危机频发的时代,一些人认为他的技术乐观主义显得粗鲁。
尽管安德森并不总是同意大型科技公司的观点,但赚钱是整个行业都能达成共识的一个领域。a16z 的联合创始人今年致信微软首席执行官萨蒂亚·纳德拉,本质上是要求政府不要监管人工智能行业。
与此同时,尽管马斯克和其他技术人员在 2023 年疯狂地挥手致意,但他们并没有放慢脚步,专注于 2024 年的安全问题——恰恰相反:2024 年人工智能投资超过了我们之前看到的任何投资。阿尔特曼很快回到了 OpenAI 的掌舵人位置,大量安全研究人员在 2024 年离开了该公司,同时敲响了警钟,警告人们其安全文化正在逐渐衰落。
今年,拜登以安全为重点的人工智能行政命令在华盛顿特区基本上失宠——即将上任的总统当选人唐纳德·特朗普宣布计划废除拜登的命令,理由是该命令阻碍了人工智能创新。安德森表示,近几个月来他一直在为特朗普提供人工智能和技术方面的建议,而 a16z 的长期风险投资家Sriram Krishnan现在是特朗普的人工智能官方高级顾问。
乔治梅森大学梅卡图斯中心专注于人工智能的研究员迪恩·鲍尔 (Dean Ball) 表示,华盛顿的共和党人有几项与人工智能相关的优先事项,这些优先事项的重要性超过了人工智能末日。这些优先事项包括建设数据中心来支持人工智能、在政府和军队中使用人工智能、与中国竞争、限制中左翼科技公司的内容审核,以及保护儿童免受人工智能聊天机器人的侵害。
“我认为(预防灾难性人工智能风险的运动)在联邦层面已经失败。在州和地方层面,他们也输掉了一场重大斗争,”鲍尔在接受采访时表示。当然,他指的是加州备受争议的人工智能安全法案 SB 1047。
2024 年 AI 末日论失宠的部分原因很简单,因为随着 AI 模型越来越受欢迎,我们也看到了它们是多么的不智能。很难想象当 Google Gemini只是告诉你在披萨上涂胶水时,它会变成天网。
但与此同时,2024 年也是许多人工智能产品似乎将科幻小说中的概念带入现实的一年。今年首次:OpenAI 展示了我们如何用手机而不是通过手机交谈,Meta推出了具有实时视觉理解功能的智能眼镜。灾难性人工智能风险背后的想法很大程度上源自科幻电影,虽然显然存在局限性,但人工智能时代正在证明科幻小说中的一些想法可能并非永远是虚构的。
2024 年最大的 AI 末日之战:SB 1047
2024 年的人工智能安全之战因SB 1047而达到高潮,该法案得到了两位备受推崇的人工智能研究人员的支持:杰弗里·辛顿和约书亚·本吉奥。该法案试图防止先进的人工智能系统造成大规模人类灭绝事件和可能造成比 2024 年 CrowdStrike 中断更大损失的网络攻击。
SB 1047 法案在加州立法机构获得通过,并一路送到州长加文·纽瑟姆的办公桌上,纽瑟姆称这是一项“影响巨大”的法案。该法案试图阻止马斯克、奥特曼和许多其他硅谷领导人在 2023 年签署有关人工智能的公开信时警告的那些事情。
但纽森否决了 SB 1047 法案。在作出决定的前几天,他在旧金山市中心的舞台上谈论人工智能监管,他说:“我无法解决所有问题。我们能解决什么问题呢?”
这非常清楚地概括了当今有多少政策制定者正在考虑灾难性的人工智能风险。这不是一个有实际解决方案的问题。
即便如此,SB 1047 除了关注灾难性人工智能风险之外,还有许多缺陷。该法案根据规模来监管人工智能模型,试图只监管最大的参与者。然而,这并没有考虑到测试时间计算等新技术或小型人工智能模型的兴起,而领先的人工智能实验室已经开始转向这些技术。此外,该法案被广泛认为是对开源人工智能的攻击——以及研究界的攻击——因为它将限制 Meta 和 Mistral 等公司发布高度可定制的前沿人工智能模型。
但据该法案的起草人、州参议员斯科特·维纳 (Scott Wiener) 称,硅谷在 SB 1047 法案上玩弄阴谋诡计,左右公众舆论。他此前表示,Y Combinator 和 A16Z 的风险投资家曾针对该法案展开宣传活动。
具体来说,这些团体散布了这样一种说法:SB 1047 法案将使软件开发人员因作伪证而入狱。Y Combinator 要求年轻的创始人在 2024 年 6 月签署一封信,说明这一情况。大约在同一时间,Andreessen Horowitz 普通合伙人 Anjney Midha在播客中也提出了类似的说法。
布鲁金斯学会将此称为该法案的众多失实陈述之一。SB 1047 确实提到了科技高管需要提交报告来指出其人工智能模型的缺陷,并且该法案指出在政府文件上撒谎属于伪证行为。然而,散布这些担忧的风险投资家没有提到,人们很少因伪证罪被起诉,甚至很少被定罪。
YC 否认他们散布错误信息的说法,此前他曾说,SB 1047 含糊不清,并不像维纳参议员所说的那么具体。
更普遍的是,在 SB 1047 之争期间,人们越来越认为,人工智能末日论者不仅是反对技术的,而且是妄想的。著名投资者维诺德·科斯拉 (Vinod Khosla) 在2024 Disrupt 活动上称维纳对人工智能的真正危险一无所知。
Meta 的首席人工智能科学家 Yann LeCun 长期以来一直反对人工智能末日的观点,但今年他变得更加直言不讳。
“认为 [智能] 系统会以某种方式制定自己的目标并接管人类的想法简直是荒谬的,简直是荒谬的,”LeCun 在2024 年达沃斯论坛上表示,并指出我们距离开发超级智能 AI 系统还很远。“有很多方法可以构建 [任何技术],这些方法可能是危险的、错误的、会杀人等……但只要有一种正确的方法,那就是我们所需要的。”
2025年的战斗
SB 1047 法案的制定者暗示,他们可能会在 2025 年再次提出修改后的法案,以应对长期的人工智能风险。该法案的发起人之一 Encode 表示,SB 1047 法案引起全国关注是一个积极信号。
Encode 政治事务副总裁 Sunny Gandhi 在电子邮件中表示:“尽管 SB 1047 被否决,但人工智能安全运动在 2024 年取得了非常令人鼓舞的进展。”“我们乐观地认为,公众对长期人工智能风险的认识正在增强,政策制定者也越来越愿意应对这些复杂的挑战。”
甘地表示,Encode 预计 2025 年将做出“重大努力”来规范人工智能辅助的灾难风险,但他并未透露具体措施。
另一方面,a16z 普通合伙人马丁·卡萨多 (Martin Casado) 是领导反对监管灾难性人工智能风险的斗争的人之一。在 12 月的一篇关于人工智能政策的专栏文章中,卡萨多认为我们需要更合理的人工智能政策,并宣称“人工智能看起来非常安全”。
卡萨多在12 月的一条推文中表示:“第一波愚蠢的人工智能政策努力基本上已经过去了。希望我们今后能够更加聪明。”
称人工智能“极其安全”并试图对其进行监管“愚蠢”有些过于简单化。例如,a16z 投资的初创公司 Character.AI 目前因儿童安全问题而受到起诉和调查。在一项正在进行的诉讼中,一名 14 岁的佛罗里达州男孩据称在与 Character.AI 聊天机器人进行浪漫和性聊天后吐露了自杀想法,之后自杀。这个案例表明,我们的社会必须为人工智能带来的新风险做好准备,而这些风险在几年前可能听起来很荒谬。
有更多法案正在酝酿,旨在应对长期的人工智能风险,其中包括参议员米特·罗姆尼刚刚在联邦层面提出的一项法案。但现在看来,人工智能末日论者在 2025 年将面临一场艰苦的战斗。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/gui-gu-zai-2024-nian-e-sha-le-ren-gong-zhi-neng-mo-ri-yun