解释:生成式人工智能对环境的影响

强大的生成式人工智能模型的快速开发和部署带来了环境后果,包括增加电力需求和水消耗。

解释:生成式人工智能对环境的影响

在由两部分组成的系列文章中, 麻省理工学院新闻探讨了生成式人工智能对环境的影响。在本文中,我们将探讨这项技术为何如此耗费资源。第二部分将探讨专家们正在采取哪些措施来减少 genAI 的碳足迹和其他影响。

人们对生成式人工智能的潜在好处(从提高工人生产率到促进科学研究)的兴奋 难以忽视。虽然这项新技术的爆炸式增长使得许多行业能够快速部署强大的模型,但这种生成式人工智能“淘金热”对环境的影响仍然难以确定,更不用说减轻了。

训练生成式人工智能模型(例如 OpenAI 的 GPT-4)所需的计算能力通常具有数十亿个参数,这可能需要大量电力,从而导致二氧化碳排放量增加和电网压力。

此外,在现实世界的应用中部署这些模型,使数百万人在日常生活中使用生成式人工智能,然后对模型进行微调以提高其性能,这会在模型开发完成后很长一段时间内消耗大量的能源。

除了电力需求外,还需要大量的水来冷却用于训练、部署和微调生成式人工智能模型的硬件,这可能会给市政供水带来压力并破坏当地生态系统。生成式人工智能应用的不断增加也刺激了对高性能计算硬件的需求,增加了其制造和运输带来的间接环境影响。

“当我们思考生成式人工智能对环境的影响时,它不仅仅是你插入电脑时所消耗的电力。它还会产生更广泛的影响,这些影响会延伸到系统层面,并会根据我们所采取的行动而持续存在,”材料科学与工程系教授、麻省理工学院新 气候项目脱碳任务负责人 Elsa A. Olivetti 说道。

Olivetti 是 2024 年论文“生成式人工智能对气候和可持续性的影响”的高级作者,该论文由麻省理工学院的同事共同撰写,旨在响应全学院的征集论文活动,探讨生成式人工智能对社会积极和消极两个方向的变革潜力。

要求严格的数据中心

数据中心的电力需求是导致生成式人工智能对环境产生影响的一个主要因素,因为数据中心用于训练和运行 ChatGPT 和 DALL-E 等流行工具背后的深度学习模型。

数据中心是一座温控建筑,里面装有服务器、数据存储驱动器和网络设备等计算基础设施。例如,亚马逊 在全球拥有 100 多个数据中心,每个数据中心都有大约 50,000 台服务器,该公司使用这些服务器来支持云计算服务。

虽然数据中心自 20 世纪 40 年代就已经出现(第一个数据中心于 1945 年在宾夕法尼亚大学建成,用于支持第一台 通用数字计算机ENIAC),但生成式人工智能的兴起极大地加快了数据中心建设的速度。

“生成式人工智能的不同之处在于它所需的功率密度。从根本上讲,它只是计算,但生成式人工智能训练集群可能比典型的计算工作负载消耗七到八倍的能量,”影响论文的主要作者、麻省理工学院气候与可持续发展联盟 (MCSC) 的计算与气候影响研究员、计算机科学与人工智能实验室 (CSAIL) 的博士后 Noman Bashir 说。

科学家估计,北美数据中心的电力需求将从 2022 年底的 2,688 兆瓦增加到 2023 年底的 5,341 兆瓦,部分原因是生成式人工智能的需求。根据经济合作与发展组织的数据,从全球来看,数据中心的电力消耗在 2022 年上升到 460 太瓦。这将使数据中心成为全球第 11 大电力消耗国,排在沙特阿拉伯(371 太瓦)和法国(463 太瓦)之间。

到 2026 年,数据中心的电力消耗预计将接近 1,050 太瓦(这将使数据中心在全球的电力消耗排名上升至第五位,介于日本和俄罗斯之间)。

虽然并非所有数据中心计算都涉及生成性人工智能,但该技术一直是能源需求增加的主要驱动力。

“对新数据中心的需求无法以可持续的方式得到满足。公司建设新数据中心的速度意味着,为这些数据中心供电的大部分电力必须来自化石燃料发电厂,”Bashir 说。

训练和部署像 OpenAI 的 GPT-3 这样的模型所需的功率很难确定。在 2021 年的一篇研究论文中,谷歌和加州大学伯克利分校的科学家估计,仅训练过程就消耗了 1,287 兆瓦时的电力(足以为大约 120 个美国普通家庭供电一年),产生了约 552 吨二氧化碳。

巴希尔解释说,虽然所有机器学习模型都必须经过训练,但生成式人工智能独有的一个问题是,在训练过程的不同阶段,能源使用会发生快速波动。

电网运营商必须有办法吸收这些波动以保护电网,他们通常使用 柴油发电机来完成这项任务。

推理产生的影响越来越大

一旦生成式人工智能模型完成训练,能源需求就不会消失。

每次使用模型时(比如某人要求 ChatGPT 总结一封电子邮件),执行这些操作的计算硬件都会消耗能源。研究人员估计,ChatGPT 查询消耗的电量大约是简单的网络搜索的五倍。

“但日常用户不会想太多,”Bashir 说。“生成式人工智能界面易于使用,而且缺乏有关我的行为对环境影响的信息,这意味着,作为用户,我没有太多动力减少对生成式人工智能的使用。”

对于传统 AI,能源消耗在数据处理、模型训练和推理之间分配得相当均匀,推理是使用训练好的模型对新数据进行预测的过程。然而,Bashir 预计,生成式 AI 推理的电力需求最终将占主导地位,因为这些模型在如此多的应用中变得无处不在,而且随着未来模型版本变得更大、更复杂,推理所需的电力将会增加。

此外,由于对新 AI 应用的需求不断增长,生成式 AI 模型的保质期特别短。Bashir 补充道,公司每隔几周就会发布新模型,因此用于训练先前版本的能量就浪费了。新模型通常比其前身具有更多参数,因此它们在训练时通常会消耗更多能量。

虽然数据中心的电力需求可能在研究文献中受到最多的关注,但这些设施消耗的水量也会对环境产生影响。

冷冻水通过吸收计算设备的热量来冷却数据中心。据估计,数据中心每消耗一千瓦时的电能,就需要两升水来冷却,Bashir 说。

“仅仅因为这被称为‘云计算’并不意味着硬件存在于云端。数据中心存在于我们的物理世界中,并且由于它们的用水量,它们对生物多样性有直接和间接的影响,”他说。

数据中心内部的计算硬件本身对环境的影响不太直接。

虽然很难估计制造 GPU(一种能够处理密集生成 AI 工作负载的强大处理器)需要多少电力,但制造 GPU 所需的电力将超过生产更简单的 CPU 所需的电力,因为制造过程更为复杂。GPU 的碳足迹因材料和产品运输相关的排放而增加。

获取用于制造 GPU 的原材料也会对环境产生影响,这可能涉及肮脏的采矿程序和使用有毒化学品进行加工。

市场研究公司 TechInsights 估计,三大生产商(NVIDIA、AMD 和英特尔)在 2023 年向数据中心出货了 385 万块 GPU,高于 2022 年的约 267 万块。预计 2024 年这一数字将进一步增长。

巴希尔表示,尽管该行业正走在一条不可持续的道路上,但仍有方法可以鼓励负责任地开发支持环境目标的生成人工智能。

他、Olivetti 和麻省理工学院的同事认为,这需要全面考虑生成式人工智能的所有环境和社会成本,以及对其感知收益的价值进行详细评估。

“我们需要一种更具情境性的方式来系统全面地了解该领域新发展的影响。由于改进速度太快,我们还没有机会赶上衡量和理解权衡的能力,”Olivetti 表示。

原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/jie-shi-sheng-cheng-shi-ren-gong-zhi-neng-dui-huan-jing-de

Like (0)
王 浩然的头像王 浩然作者
Previous 2025年1月27日
Next 2025年1月27日

相关推荐

发表回复

Please Login to Comment