为什么人工智能是万事通,却一无所知

为什么人工智能是万事通,却一无所知

每月有超过 5 亿人信任 GeminiChatGPT ,相信它们能让他们了解从意大利面到性或家庭作业等所有信息。但如果人工智能告诉你用汽油煮意大利面,那么你可能也不应该听从它在节育或代数方面的建议。

在 1 月份的世界经济论坛上,OpenAI 首席执行官 Sam Altman 明确表示:“我无法通过观察你的大脑来了解你为什么会这样想。但我可以请你解释你的想法,并决定这对我来说是否合理。……我认为我们的人工智能系统也能做同样的事情。他们将能够向我们解释从 A 到 B 的步骤,我们可以决定这些步骤是否合理。”

你准备好迎接人工智能代理了吗?

知识需要论证

毫不奇怪,Altman 希望我们相信像 ChatGPT 这样的大型语言模型(LLM) 可以对它们所说的一切做出透明的解释:如果没有充分的理由,人类所相信或怀疑的任何事情都不会成为知识。为什么不呢?好吧,想想当你觉得你肯定知道某事的时候。最有可能的是,当你对自己的信念充满信心时,因为它得到了充分的支持——有证据、论据或可信权威的证词。

法学硕士 (LLM) 应该是值得信赖的权威机构,是可靠的信息提供者。但是,除非他们能解释其推理,否则我们就无法知道他们的断言是否符合我们的论证标准。例如,假设你告诉我今天田纳西州的雾霾是由加拿大西部的野火引起的。我可能会相信你的话。但假设昨天你一本正经地向我发誓,打蛇是论文答辩的常规部分。那么我知道你并不完全可靠。所以我可能会问你为什么认为雾霾是由加拿大的野火引起的。为了证明我的信念是正确的,我必须知道你的报告是可靠的。

问题在于,今天的人工智能系统无法通过分享其言论背后的推理来赢得我们的信任,因为根本就没有这样的推理。法学硕士根本不是推理而设计的。相反,模型是通过大量人类写作来训练的,以检测、预测或扩展语言中的复杂模式。当用户输入文本提示时,响应只是算法对该模式最有可能如何继续的投影。这些输出(越来越)令人信服地模仿了知识渊博的人可能会说的话。但底层过程与输出是否合理毫无关系,更不用说真实了。正如希克斯、汉弗莱斯和斯莱特在《ChatGPT 是胡说八道》中所说,法学硕士“旨在生成看起来符合事实的文本,而实际上并不关心真相”。

那么,如果人工智能生成的内容不是人类知识的人工等价物,那它是什么呢?希克斯、汉弗莱斯和斯莱特称其为胡说八道是正确的。不过,法学硕士吐出的很多东西都是真的。当这些“胡说八道”的机器产生事实准确的输出时,它们会产生哲学家们所说的盖梯尔案例(以哲学家埃德蒙·盖梯尔命名)。这些案例之所以有趣,是因为它们以一种奇怪的方式将真实的信念与对这些信念的合理性的无知结合在一起。

人工智能输出可能像海市蜃楼

考虑一下这个例子,来自8 世纪印度佛教哲学家达摩多罗的著作:想象一下,我们在炎热的天气里寻找水。我们突然看到了水,或者我们以为看到了水。事实上,我们看到的不是水,而是海市蜃楼,但当我们到达目的地时,我们很幸运,在岩石下找到了水。我们能说我们对水有真正的了解吗?

人们普遍认为,无论知识是什么,本例中的旅行者都没有。相反,他们很幸运地在他们没有充分理由相信会找到水的地方找到了水。

问题是,每当我们认为我们知道从法学硕士 (LLM) 那里学到的东西时,我们就会把自己放在与达摩塔拉 (Dharmottara) 旅行者的立场上。如果法学硕士 (LLM) 是在高质量数据集上训练的,那么它的断言很可能是正确的。这些断言可以比作海市蜃楼。可以证明其断言的证据和论据也可能存在于其数据集的某个地方——就像岩石下涌出的水被证明是真实的一样。但可能存在的证明证据和论据对法学硕士 (LLM) 的产出没有任何作用——就像水的存在对创造支持旅行者相信他们会在那里找到它的幻觉没有任何作用一样。

因此,Altman 的保证具有极大的误导性。如果你要求 LLM 证明其输出,它会做什么?它不会给你真正的证明。它会给你一个 Gettier 证明:一种令人信服地模仿证明的自然语言模式。一种虚假的证明。正如 Hicks 等人所说,这是一种胡说八道的证明。众所周知,这根本就不是证明。

目前,人工智能系统经常出错,或者产生“幻觉”,导致面具不断脱落。但随着合理化幻觉变得越来越令人信服,以下两种情况之一将会发生。 

对于那些理解真正的人工智能内容是盖梯尔大案的人来说,法学硕士声称自己在解释自己的推理,这种明显虚假的说法将损害其可信度。我们会知道,人工智能是经过精心设计和训练的,目的是系统性地欺骗。

对于那些不知道人工智能会给出盖梯尔理由(虚假理由)的人?好吧,我们只是被欺骗了。如果我们依赖法学硕士,我们将生活在一种准矩阵中,无法区分事实和虚构,也不知道我们应该担心两者之间可能存在差异。

每个输出都必须合理

在权衡这一困境的重要性时,重要的是要记住,法学硕士的工作方式并没有错。它们是令人难以置信的强大工具。那些知道人工智能系统产生的是盖梯尔案例而不是(人工)知识的人已经以考虑到这一点的方式使用法学硕士。程序员使用法学硕士起草代码,然后使用自己的编码专业知识根据自己的标准和目的对其进行修改。教授使用法学硕士起草论文提示,然后根据自己的教学目标对其进行修改。在这个选举周期中,任何名副其实的演讲撰稿人都会对人工智能撰写的任何草稿进行事实核查,然后让他们的候选人带着它走上舞台。等等。

但大多数人求助于人工智能的恰恰是我们缺乏专业知识的地方。想想青少年研究代数……或预防药物。或者老年人寻求饮食或投资建议。如果法学硕士要调解公众获取这些关键信息的渠道,那么我们至少需要知道我们是否可以信任它们以及何时可以信任它们。而信任需要知道法学硕士无法告诉我们的事情:每个输出是否合理以及如何合理。 

幸运的是,你可能知道橄榄油比汽油更适合用来煮意大利面。但是,你曾全盘接受过哪些危险的现实,却从未尝试过其中的道理?

原创文章,作者:点点,如若转载,请注明出处:https://www.dian8dian.com/wei-shen-me-ren-gong-zhi-neng-shi-wan-shi-tong-que-yi-wu

Like (0)
点点的头像点点
Previous 2024年9月30日
Next 2024年9月30日

相关推荐

发表回复

Please Login to Comment