AGI 的到来比我们想象的要快——我们必须做好准备

AGI 的到来比我们想象的要快——我们必须做好准备

包括 AnthropicDario AmodeiOpenAISam Altman 在内的人工智能领域的领军人物表示,“强大的人工智能”甚至超级智能可能会在未来 2 到 10 年内出现,并有可能重塑我们的世界。

在他最近的文章《充满爱意的机器》中,阿莫迪对人工智能的潜力进行了深入的探索,他认为强大的人工智能——其他人称之为通用人工智能 (AGI)——最早可以在 2026 年实现。与此同时,在《智能时代》中,奥尔特曼写道:“我们有可能在几千天内(或到 2034 年)拥有超级智能。”如果他们是对的,那么在未来两到十年的某个时候,世界将发生巨大变化。

作为人工智能研究和开发的领导者,阿莫迪和阿尔特曼站在突破可能性界限的前沿,他们的见解对我们展望未来具有特别重要的影响。阿莫迪将强大的人工智能定义为“在大多数相关领域(生物学、编程、数学、工程学、写作等)比诺贝尔奖得主更聪明”。阿尔特曼在他的文章中没有明确定义超级智能,尽管人们认为超级智能是超越所有领域人类智力能力的人工智能系统。 

虽然这些不太乐观的观点并未削弱科技领袖们的热情,但并非所有人都认同这一乐观的时间表。例如,OpenAI 联合创始人 Ilya Sutskever 现在是 Safe Superintelligence (SSI) 的联合创始人,SSI 是一家致力于以安全第一的方法推进人工智能发展的初创公司。去年 6 月宣布成立SSI 时,Sutskever 表示:“我们将一口气打造安全超级智能,专注于一个重点、一个目标和一个产品。”一年前,他还在 OpenAI 工作时,他谈到人工智能的发展时指出:“这将是里程碑式的、惊天动地的。会有前因后果。”在 SSI 的新职位上,Sutskever 已经筹集了 10 亿美元来资助公司的发展。

这些预测与伊隆·马斯克的估计相符,即到 2029 年,人工智能将超越全人类。马斯克最近表示,人工智能将能够在未来一两年内做任何人类能做的事情。他补充说,人工智能将能够在未来三年内,即 2028 年或 2029 年,做所有人类加起来能做的事情。这些预测也与未来学家雷·库兹韦尔的长期观点一致,即 AGI 将在 2029 年实现。库兹韦尔早在 1995 年就做出了这一预测,并在 2005 年的畅销书《奇点临近》中对此进行了阐述。 

迫在眉睫的转型

当我们即将迎来这些潜在的突破时,我们需要评估我们是否真的做好了迎接这一转变的准备。无论是否做好准备,如果这些预测是正确的,一个全新的世界将很快到来。 

今天出生的孩子可能会进入一个由 AGI 改变的世界的幼儿园。人工智能看护者会远吗?突然间,石黑一雄在《克拉拉与太阳》中描绘的未来愿景——这些孩子在十几岁时会有一个机器人朋友——似乎并不那么遥不可及。人工智能伴侣和看护者的前景预示着一个具有深刻道德和社会转变的世界,这个世界可能会挑战我们现有的框架。

除了陪伴和照护之外,这些技术的影响在人类历史上也是史无前例的,既带来了革命性的希望,也带来了生存风险。强大的人工智能可能带来的潜在好处是深远的。除了机器人方面的进步,这可能包括开发癌症和抑郁症的治疗方法,最终实现聚变能源。有些人认为即将到来的时代是一个富足的时代,人们将拥有新的创造力和联系机会。然而,可能的负面影响也同样重大,从巨大的失业和收入不平等到失控的自主武器。 

麻省理工学院斯隆管理学院首席研究员安德鲁·迈克菲认为,短期内,人工智能将增强人类的工作,而不是取代人类。在最近的Pivot 播客中,他指出,人工智能提供了“一支随时可用的文员、同事和教练大军”,尽管它有时会承担“大量”工作。 

但这种对人工智能影响的慎重看法可能有一个结束日期。埃隆·马斯克说,从长远来看,“可能我们中没有人会失业。”这种鲜明的对比凸显了一个关键点:无论 2024 年人工智能的能力和影响看起来如何,在可能仅需几年时间的 AGI 世界中,情况都可能截然不同。

降低预期:平衡乐观与现实

尽管这些预测都很雄心勃勃,但并非所有人都认为强大的人工智能即将问世,或者其影响会如此直接。深度学习怀疑论者加里·马库斯 (Gary Marcus) 曾警告称,目前的人工智能技术无法实现 AGI,他认为该技术缺乏所需的深度推理能力。马斯克最近预测人工智能很快就会比任何人类都聪明,马库斯曾对此大加抨击,并悬赏 100 万美元来证明马斯克的预测是错误的。

Linux 操作系统的创始人兼首席开发人员 Linus Torvalds最近表示,他认为人工智能将改变世界,但目前来看,“90% 是营销,10% 是现实”。他认为,就目前而言,人工智能可能更多的是炒作,而不是实质内容。

OpenAI 的一篇新论文或许为 Torvald 的断言提供了可信度,该论文表明,他们领先的前沿大型语言模型 (LLM)(包括 GPT-4o 和 o1)在回答有事实答案的简单问题时遇到了困难。该论文描述了一种新的“SimpleQA”基准,“用于衡量语言模型的事实性”。表现最好的是 o1-preview,但它对一半的问题给出了错误答案。 

AGI 的到来比我们想象的要快——我们必须做好准备

展望未来:为人工智能时代做好准备

对人工智能潜力的乐观预测与 SimpleQA 等基准测试所显示的该技术的现状形成鲜明对比。这些局限性表明,尽管该领域正在快速发展,但要实现真正的 AGI,还需要一些重大突破。 

尽管如此,那些最接近发展中的人工智能技术的人预见到了快速发展。在最近的Hard Fork 播客中,OpenAI 的前 AGI 准备高级顾问Miles Brundage表示:“我认为大多数了解他们所谈论内容的人都同意 [AGI] 会很快消失,这对社会意味着什么甚至无法预测。” Brundage 补充道:“我认为大多数人退休的时间会比他们想象的要早……”

斯坦福大学的罗伊·阿玛拉 (Roy Amara) 于 1973 年提出了阿玛拉定律,该定律认为,我们经常高估新技术的短期影响,而低估其长期潜力。虽然 AGI 的实际到来时间可能与最激进的预测不符,但它的最终出现(可能仅需几年)可能会比当今乐观主义者的设想更为深刻地重塑社会。 

然而,目前的人工智能能力与真正的 AGI 之间的差距仍然很大。考虑到所涉及的利害关系——从革命性的医学突破到生存风险——这个缓冲是宝贵的。它为制定安全框架、调整我们的机构和为从根本上改变人类体验的转变做好准备提供了关键的时间。问题不仅在于 AGI 何时到来,还在于我们是否为它做好准备。

原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/agi-de-dao-lai-bi-wo-men-xiang-xiang-de-yao-kuai-wo-men-bi

Like (0)
王 浩然的头像王 浩然作者
Previous 2024年11月11日
Next 2024年11月11日

相关推荐

发表回复

Please Login to Comment