AI的代价:你每次提问ChatGPT用了多少电?

来自版块 问答
281
0
(泉源:MITNews)
人们对天生式 AI 布满等待,从提拔工作服从到推动科学研究的进步。然而,只管这项技能的迅猛发展推动了强盛模子在多个行业的快速应用,随之而来的情况影响却仍难以量化,更不消说有用缓解。
练习拥有数十亿参数的天生式 AI 模子,如 OpenAI 的 GPT-4,必要强盛的盘算本领,这不但斲丧大量电力,增长二氧化碳排放,还会给电网带来额外压力。
别的,将这些模子摆设到现实应用中,使数百万人可以或许在一样平常生存中利用天生式 AI 模子,并在开辟完成后连续微调以优化性能,这些都将恒久斲丧大量能源。
练习、摆设和微调天生式 AI 模子所利用的硬件依靠大量水资源举行冷却,这大概对市政供水体系造成压力,并影响本地生态体系。别的,天生式 AI 应用的激增推动了对高性能盘算硬件的需求,从而在制造和运输过程中心接增长了情况负担。
“当昨们讨论天生式 AI 的情况影响时,不能只是关注装备插上电源时斲丧的电力。这些影响涉及更广泛的体系层面,而且会随着昨们接纳的举措而连续存在。”麻省理工学院质料科学与工程系传授 Elsa A. Olivetti 表现。她同时也是麻省理工学院新天气项目脱碳使命的负责人。
Olivetti 是论文“The Climate and Sustainability Implications of Generative AI”的资深作者之一。该论文由 MIT 研究团队共同撰写,作为该研究所范围内征集论文的一部门,旨在探究天生式 AI 对社会的厘革潜力,包罗其正面与负面影响。

高耗能的数据中央
数据中央的电力需求是天生式 AI 对情况影响的焦点因素之一。这些中央负担着练习和运行深度学习模子的重任,为 ChatGPT、DALL-E 等广受接待的 AI 工具提供支持。
数据中央是一种温控修建,内部容纳盘算底子办法,如服务器、数据存储装备和网络装备。比方,亚马逊在环球运营着 100 多个数据中央,每个数据中央约包罗 50,000 台服务器,用于支持其巨大的云盘算服务。
只管数据中央的概念自 20 世纪 40 年代以来就已存在(1945 年,宾夕法尼亚大学制作了环球首个数据中央,以支持首台通用数字盘算机 ENIAC)。现在,天生式 AI 的崛起大幅加速了数据中央的建立速率。
“天生式 AI 的独特之处在于其极高的功率密度。本质上,它仍旧是盘算,但一个用于练习天生式 AI 的盘算集群所斲丧的能源大概是典范盘算工作负载的七到八倍。”麻省理工学院盘算机科学与人工智能实行室博士后 Noman Bashir 表明道。他同时是该研究论文的第一作者。
科学家估计,北美数据中央的电力需求已从 2022 年底的 2,688 兆瓦增长至 2023 年底的 5,341 兆瓦,此中部门增长归因于天生式 AI 的需求。从环球来看,2022 年纪据中央的总电力斲丧达 460 太瓦时。根据经济互助与发展构造的数据,这一能耗足以使数据中央成为环球第 11 大用电实体,位列沙特阿拉伯(371 太瓦时)和法国(463 太瓦时)之间。
预计到 2026 年,数据中央的电力斲丧将靠近 1,050 太瓦时,届时它们将成为环球第五大用电实体,仅次于日本和俄罗斯。
只管数据中央的盘算使命并非全部涉及天生式 AI,但这一技能已成为能源需求增长的重要驱动力(6.890, -0.01, -0.14%)之一。
“新建数据中央的能源需求难以以可连续的方式满意。各家公司建立数据中央的速率过快,这意味着其电力供应仍旧重要依靠化石燃料发电厂。” Bashir 指出。
练习和摆设大型 AI 模子,如 OpenAI 的 GPT-3 所需的电力难以精准估算。然而,2021 年的一项研究表明,谷歌和加州大学伯克利分校的科学家估算仅 GPT-3 的练习过程就斲丧了 1,287 兆瓦时的电力,这一用量足以支持约 120 户美国平凡家庭一年的用电需求,并陪同约 552 吨二氧化碳排放。
Bashir 表明说,“只管全部呆板学习模子都必要颠末练习,但天生式 AI 面对的独特挑衅之一在于其练习过程的差别阶段会导致能源斲丧剧烈颠簸。”
电网运营商必须找到应对这些颠簸的方法以确保电网稳固性。然而,通常用于均衡电力负载的方法是利用柴油发电机,这不但增长了对化石燃料的依靠,还进一步加剧了碳排放题目。

推理阶段的能源影响连续增长
当一个天生式 AI 模子完成练习后,其能源需求并不会随之消散。
每次利用模子,比方用户哀求 ChatGPT 总结一封电子邮件,实行这些操纵的盘算硬件都会斲丧能源。研究职员估计,一次 ChatGPT 查询所斲丧的电力约莫是一次平凡网络搜刮的五倍。
“但平凡用户不会过多思量这一点。” Bashir 说道,“天生式 AI 界面的便捷性,以及用户对其情况影响缺乏认知,意味着昨们不会去想怎样淘汰对这项技能的利用。”
在传统 AI 中,能源斲丧相对匀称地分布在数据处置惩罚、模子练习和推理三个阶段。然而,Bashir 预计,天生式 AI 的推理阶段将来将成为能源斲丧的主导部门。随着这些模子在越来越多的应用中遍及,且将来版本的模子变得更大、更复杂,推理所需的电力斲丧也将连续增长。
只管数据中央的电力需求在研究中受到广泛关注,但这些办法的水资源斲丧同样带来了明显的情况影响。
冷却数据中央通常必要大量冷却水来吸取盘算装备产生的热量。据 Bashir 估算,数据中央每斲丧 1 千瓦时的能源,通常必要约 2 升水举行冷却。这种高强度的水资源斲丧大概加剧本地的水资源短缺,并对生态体系造成粉碎。
“云盘算这个名称并不意味着这些硬件真的存在于云端。数据中央是实际天下中的实体办法,而它们的用水需求对生物多样性有着直接和间接的影响。” Bashir 说道。
数据中央内部的盘算硬件自己也带来了间接但明显的情况影响。
只管难以准确估算制造 GPU 所需的电力,但其能耗无疑高于更简朴的 CPU,由于 GPU 的制造工艺更加复杂。别的,GPU 的碳足迹还受到原质料运输和供应链排放的叠加影响。
GPU 所利用的原质料开采过程同样带来了严峻的情况影响。很多有数金属的开采涉及高污染的采矿作业,而且在提炼过程中大概利用有毒化学品,对生态情况造成恒久粉碎。
市场研究公司 TechInsights 估计,2023 年,三大重要 GPU 生产商英伟达、AMD 和英特尔向数据中央出货了 385 万块 GPU,较 2022 年的 267 万块大幅增长。预计 2024 年的增长幅度将更为明显。
Bashir 指出,当前行业的发展路径难以恒久连续,但仍旧可以通过推动负责任的天生式 AI 发展来支持情况目的。
他与 Olivetti 及其麻省理工学院的同事们以为,要实现这一目的,必要全面考量天生式 AI 的情况与社会本钱,同时深入评估其潜伏收益的真正代价。
“昨们必要一种更有针对性的方法,以体系且全面地明白该范畴新技能发展的影响。由于技能进步的速率云云之快,昨们尚未有充足的时间来美满权衡和明白这些衡量弃取的本领。” Olivetti 总结道。
https://news.mit.edu/2025/explained-generative-ai-environmental-impact-0117
                                                                                                                                                                                                                                                                                                    
                海量资讯、精准解读,尽在新浪财经APP
            
                                                                                                                               

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x

使用道具 举报

全部评论 0

热文

所属版块

您需要登录后才可以回帖 立即登录
说说你的想法......
0
0
0
返回顶部