众所周知,生成式人工智能的发展需要越来越多的水和电,但《华盛顿邮报》 和加州大学河滨分校研究人员的一项新研究表明,OpenAI 的聊天机器人需要多少资源才能执行其最基本的功能。
在用水量方面,ChatGPT 撰写一封 100 字的电子邮件所需的水量取决于所在州以及用户与 OpenAI 最近的数据中心的距离。某个地区的水资源越稀缺,电力越便宜,数据中心就越有可能依靠电动空调机组。例如,在德克萨斯州,聊天机器人仅消耗估计 235 毫升水来生成一封 100 字的电子邮件。另一方面,在华盛顿起草的同一封电子邮件则需要 1,408 毫升(近一升半)。
随着生成式人工智能技术的兴起,数据中心变得越来越大,越来越密集,以至于空气冷却系统难以跟上。这就是为什么许多人工智能数据中心已经转向液体冷却方案,将大量的水泵过服务器堆栈,以吸收热能,然后将其输送到冷却塔,收集的热量在那里消散。
ChatGPT 的电力需求也不容小觑。据《华盛顿邮报》报道,使用 ChatGPT 撰写这封 100 字的电子邮件所消耗的电流足以让十几个 LED 灯泡亮一个小时。即使有十分之一的美国人一年内每周使用 ChatGPT 撰写一次电子邮件,这个过程所消耗的电量也相当于华盛顿特区每个家庭 20 天所消耗的电量。华盛顿特区约有 67 万居民。
这个问题短期内无法解决,而且在情况好转之前可能会变得更糟。例如,Meta 需要 2200 万升水来训练其最新的Llama 3.1 模型。据法庭记录显示,谷歌位于俄勒冈州达尔斯的数据中心消耗了该镇近四分之一的水量,而 xAI 的新孟菲斯超级集群 已经需要 150MW的电力——足以为多达 30,000 户家庭供电——来自当地公用事业公司孟菲斯电力、煤气和水务公司。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/chatgpt-de-zi-yuan-xu-qiu-zheng-zai-shi-kong