外洋古董 · 艺术品 · 名画 · 名表

生成式人工智能需要大年夜量的电、水老化的美国电网无法遭遇负荷_中心_数据 文字写作

【FuninUSA.NET综合宣布】得益于人工智能的发达发展,新的数据中央如雨后春笋般呈现,企业建造数据中央的速率可谓提高神速。
这就对运行和冷却内部做事器的电力产生了巨大需求。
现在,人们越来越担心,美国能否为人工智能的广泛运用供应足够的电力,以及我们老化的电网能否承受得起这一负荷。

Arm公司汽车部门主管迪皮蒂-瓦查尼(Dipti Vachani)说:“如果我们现在不开始以不同的办法思考电力问题,我们将永久无法实现我们的梦想。
这家芯片公司的低功耗处理器越来越受到谷歌、微软、甲骨文和亚马逊等超大规模企业的青睐,这正是由于它们可以将数据中央的功耗降落15%。

Nvidia的最新 AI芯片Grace Blackwell采取了基于Arm的CPU,该公司称其运行天生式AI模型的功耗比上一代产品低25倍。

Vachani说:“节省每一度电的设计与试图最大限度提高性能的设计有着实质的不同。

这种通过提高打算效率来降落功耗的策略,也便是常说的“每瓦多事情/more work per watt”,是办理人工智能能源危急的一个办法。
但这还远远不足。

根据高盛集团的一份报告,一次查询所花费的能源是一次范例的谷歌搜索的近10倍。
天生一张人工智能图像的耗电量相称于为智好手机充电。

这个问题并不新鲜。
2019年的估算创造,演习一个大型措辞模型产生的二氧化碳相称于五辆汽油动力汽车全体生命周期的二氧化碳排放量。

为适应这种巨大的电力花费而培植数据中央的超大规模企业也看到了排放量的飙升。
谷歌最新的环境报告显示,从2019年到2023年,温室气体排放量增加了近50%,部分缘故原由是数据中央的能耗,不过谷歌也表示,其数据中央的能效是普通数据中央的1.8倍。
从2020年到2024年,微软的排放量增加了近 30%,部分缘故原由也是数据中央。

在堪萨斯城,Meta公司正在培植一个以人工智能为重点的数据中央,那里的电力需求非常高,以至于关闭一家燃煤发电厂的操持被搁置。

追逐动力

环球有8000多个数据中央,个中美国的数据中央最为集中。
由于人工智能的发展,到本十年末,美国的数据中央数量将大大增加。
波士顿咨询公司估量,到 2030年,对数据中央的需求将每年增长15%-20%,届时数据中央估量将占美国总耗电量的16%。
而在2022年OpenAI的ChatGPT发布之前,这一比例仅为 2.5%,相称于美国三分之二家庭的用电量。

CNBC访问了硅谷的一个数据中央,以理解该行业如何应对这种快速增长,以及在哪里可以找到足够的电力来实现这一目标。

Vantage Data Center 北美和亚太地区实行副总裁杰夫-滕奇(Jeff Tench)说:“我们认为,人工智能特定运用的需求量将与云打算的需求量相称,乃至超过历史上的需求量。

许多大型科技公司都与 Vantage这样的公司签订了做事器托管条约。
Tench 说,Vantage数据中央的用电量常日高达64兆瓦,相称于数万户家庭的用电量。

“个中许多数据中央都被单个客户占用,他们将全体空间租给他们。
当我们考虑人工智能运用时,这些数字可能会大幅增长,达到数百兆瓦,”Tench说。

CNBC访问Vantage的加利福尼亚州圣克拉拉市,长期以来一贯是美国数据中央集群的热点地区之一,靠近数据需求量大的客户。
从屋顶可以看到Nvidia的总部。
滕奇说,由于“该地区电力供应不敷”,北加州的数据中央发展“放缓”。

Vantage正在俄亥俄州、德克萨斯州和佐治亚州培植新的园区。

Tench说:“该行业本身正在探求可以就近利用可再生能源(风能或太阳能)和其他根本举动步伐的地方,无论是将燃煤电厂转化为天然气的勉励操持的一部分,还是越来越多地寻求从核举动步伐获取电力的方法”。

一些人工智能公司和数据中央正在考试测验现场发电的方法。

OpenAI首席实行官山姆-阿尔特曼(Sam Altman)一贯在强调这一需求。
最近,他投资了一家太阳能初创公司,该公司生产集装箱大小的模块,模块上装有电池板和储能装置。
Altman还投资了核裂变初创公司Oklo,该公司的目标是制造安装在A型框架构造中的微型核反应堆;他还投资了核聚变初创公司 Helion。

微软去年与Helion签订协议,将于2028年开始购买其核聚变电力。
谷歌与一家地热初创公司互助,该公司表示,其下一个工厂将从地下获取足够的电力来运行一个大型数据中央。
Vantage公司最近在弗吉尼亚州建造了一座100兆瓦的天然气发电厂,为其一个数据中央供应电力,使其完备分开电网。

加固电网

老化的电网每每不具备处理负荷的能力,纵然在可以产生足够电力的地方也是如此。
瓶颈在于如何将电力从发电地点运送到用电地点。
一种办理方案是增加数百或数千英里的输电线路。

加州大学河滨分校电气与打算机工程系副教授任少磊说:“这样做本钱很高,而且耗时很长,有时本钱会通过增加水电费的办法转嫁给居民。

一项耗资52亿美元、旨在将线路扩展到弗吉尼亚州一个被称为“数据中央胡同”的地区的操持遭到了当地纳税人的反对,他们不肯望看到自己的账单因该项目而增加。

另一种办理方案是利用预测软件来减少电网最薄弱环节之一变压器的故障。

VIE Technologies 首席实行官拉胡尔-查特韦迪(Rahul Chaturvedi)说:“所有发电都必须经由变压器。

变压器的均匀利用年限也达到了38年,因此它们是造成停电的常见缘故原由。
改换变压器既昂贵又缓慢。
VIE制造了一种小型传感器,可以安装在变压器上,预测故障,并确定哪些变压器可以承受更大的负荷,以便将负荷从有故障风险的变压器上转移开。

Chaturvedi说,自ChatGPT于2022年发布以来,业务量已经增长了两倍,明年有望再增长两倍或三倍。

冷却做事器

根据REN的研究,到2027年,天生式人工智能数据中央还将须要42亿至66 亿立方米的打水量来保持冷却。
这比半个英国的年用水总量还要多。

“每个人都在担心人工智能是能源密集型的。
当我们不再做核电方面的白痴时,我们就能办理这个问题,不是吗?这是可以办理的。
”Burnt Island Ventures的管理合资人汤姆-弗格森(Tom Ferguson)说:“水是限定人工智能发展的根本成分。

REN的研究团队创造,每10-50次ChatGPT提示就能花费掉一个标准16盎司水瓶中的水量。

这些水大部分用于蒸发冷却,但Vantage的圣克拉拉数据中央拥有大型空调设备,无需打水即可冷却大楼。

另一种办理方案是利用液体直接冷却芯片。

“对付很多数据中央来说,这须要大量的改造。
”Vantage的Tench说:“就我们Vantage而言,大约六年前,我们采取了一种设计,使我们能够利用数据大厅楼层的冷水循环系统。

苹果、三星和高通等公司都宣扬过设备上人工智能的好处,它能让耗电的查询阔别云端,也阔别电力紧张的数据中央。

“这些数据中央能支持多少人工智能,我们就能拥有多少人工智能。
这可能比人们所期望的要少。
”Tench说:“但归根结底,很多人都在努力探求方法,以解除一些供应限定。

欢迎到FuninUSA.NET论坛谈论