微软公司和谷歌在最新季度古迹中报告了云打算收入的激增,由于企业客户在他们的AI做事上花费更多。
只管Meta在技能货币化方面稍显掉队,但其AI努力帮助提升了用户参与度和广告定位。

为什么人工智能如斯昂贵?_人工智能_模子 科技快讯

为了实现这些早期收益,三家公司已经花费了数十亿美元来开拓AI——并且操持进一步增加这些投资。

在4月25日,微软表示在最近一个季度的成本支出为140亿美元,估量这些本钱将“大幅增加”,部分缘故原由是AI根本举动步伐投资。
这比去年同期增加了79%。
谷歌表示,在该季度花费了120亿美元,比去年同期增加了91%,并估量整年将保持或超过这一水平,专注于AI机会。
与此同时,Meta提高了今年的投资预期,现在认为成本支出将在350亿至400亿美元之间,在高端将增长 42%。
其情由是对AI研究和产品开拓的积极投资。

人工智能本钱的上升让一些投资者措手不及。
尤其是 Meta 的股价,因支出预测以及发卖增长低于预期而暴跌。
但在科技行业内部,人工智能本钱将会上升长期以来一贯是一种信念。
这有两个关键缘故原由:人工智能模型只会越来越大,开拓本钱越来越高,而环球对人工智能做事的需求须要建立更多的数据中央来支持它。

正在考试测验此类人工智能做事的企业可以花费数百万美元来定制OpenAI或Google的产品。
一旦它们启动并运行,每当有人 ping 谈天机器人或哀求 AI 做事剖析发卖数据时,都会产生额外的本钱。
但更昂贵的事情是为这些人工智能系统奠定根本。
下面我们来看看这些努力。

大型措辞模型变大

当今最有名的人工智能产品,包括 OpenAI 的 ChatGPT,都是由大型措辞模型供应支持的——这些系统被输入大量数据,包括书本、文章和在线评论,以便对用户的查询做出最佳相应。
许多领先的人工智能公司都认为,通往更繁芜的人工智能的道路——乃至可能是在许多任务上赛过人类的人工智能系统——是让这些大型措辞模型变得更大。
这须要获取更多的数据,更多的打算能力,以及更永劫光的人工智能系统演习。
在 4 月初的一次播客采访中,OpenAI 竞争对手 Anthropic 的首席实行官 Dario Amodei 表示,目前市场上的 AI 模型演习本钱约为 1 亿美元。
“现在正在演习的模型以及今年晚些时候或明年初发布的模型本钱靠近10亿美元,”他说。
“我认为在2025年和2026年,我们将更多地走向50亿或100亿美元。

芯片和打算本钱

个中很大一部分本钱与芯片有关。
这些不是使英特尔公司出名的中心处理单元(CPU)或为数十亿智好手机供应动力的缩减版的移动处理器。
为了演习大型措辞模型,AI公司依赖于图形处理单元(GPU),这些单元可以以高速处理大量数据。
这些芯片不仅供应紧张,而且价格极其昂贵,最前辈的芯片紧张由一家公司——英伟达公司制造。

英伟达(Nvidia)的H100图形芯片是演习AI模型的黄金标准,其售价估计为30,000美元,一些经销商的售价是该价格的数倍。
大型科技公司须要大量的这种芯片。
Meta首席实行官扎克伯格此前表示,他的公司操持在今年年底前购买350,000颗H100芯片,以支持其AI研究事情。
纵然他得到批量购买折扣,这也很随意马虎达到数十亿美元。

公司可以在不购买实际芯片的情形下进行这项事情,但租用它们的用度也很高。
比如,亚马逊公司的云部门将以每小时约6美元的价格向客户租用英特尔制造的大型主力处理器集群。
比较之下,一组 Nvidia H100 芯片每小时的本钱靠近 100 美元。

上个月,英伟达推出了一种新处理器设计,名为Blackwell,这种处理器在处理大型措辞模型方面的速率是现有型号的数倍,估量价格与包括H100在内的Hopper系列相似。
英伟达表示,演习一个1.8万亿参数的AI模型大约须要2000个Blackwell GPU。
据《纽约时报》提起的一宗关于OpenAI利用其文章演习AI系统的诉讼估算,这大约是GPT-4的大小。
比较之下,英伟达表示,完成同样任务须要8000个Hopper GPU。
但这种改进可能会被行业推动构建更大的人工智能模型所抵消。

数据中央

购买这些芯片的公司须要有地方放置它们。
Meta 与最大的云打算公司——亚马逊、Microsoft 和谷歌——以及其他租用算力供应商一起竞相建造新的做事器群。
这些建筑每每是定制的。
它们包含硬盘驱动器、处理器、冷却系统以及成堆的电气设备和备用发电机。

研究职员Dell'Oro Group估计,公司今年将花费2940亿美元建造和装备数据中央,高于2020年的1930亿美元。
这种扩展很大程度上反响了数字做事的广泛增长——流媒体***、企业数据的爆炸式增长、社交媒体提要。
但是,越来越多的支出被指定用于昂贵的英伟达芯片和其他支持人工智能繁荣所需的专用硬件。

根据市场情报公司DC Byte的数据,环球目前有超过7,000个数据中央,包括处于不同发展阶段的举动步伐,高于2015年的3,600个。
这些举动步伐也变得越来越大。
根据 DC Byte 的数据,环球数据中央建筑的均匀面积现在为 412,000 平方英尺,自 2010 年以来险些增加了五倍。

交易和人才

虽然芯片和数据中央霸占了本钱的绝大部分,但一些AI公司还花费数百万美元从出版商处获取数据。

OpenAI已经与多家欧洲出版商达成协议,将他们的***内容纳入ChatGPT,并演习其AI模型。
这些交易的财务条款尚未表露,但据彭博***此前宣布,OpenAI赞许支付数千万欧元给Axel Springer SE,这是一家德国出版商,拥有《Politico》和《Business Insider》。
这家初创公司还与《时期周刊》、《CNN》和《福克斯***》就内容许可进行了会谈。

虽然OpenAI在得到容许交易方面更加积极,但大型科技公司也在探求获取构建引人瞩目的人工智能工具所需的措辞数据的方法。
据路透社宣布,谷歌已经达成了一项代价6000万美元的协议,从Reddit得到数据容许。
据《纽约时报》宣布,据宣布,Meta 员工正在谈论收购图书出版商 Simon & Schuster。
科技公司也陷入了一场争夺人工智能人才的狂热战役中。
去年,Netflix Inc.曾一度招聘AI产品经理一职,年薪高达90万美元。

更便宜的替代品

微软在推动大型措辞模型热潮方面做得最多,该公司最近表示将考试测验不同的方法。
该公司预报了三个打算密集度较低的小型AI模型。

微软表示,大型措辞模型“仍旧是办理许多繁芜任务的黄金标准”,如“高等推理、数据剖析和高下文理解”。
但对付某些客户和用例,小型模型可能就足够了。
其他公司,包括由两名前谷歌员工创立的初创公司Sakana AI,也专注于小型模型。

“你并不总是须要跑车,”Forrester Research专注于AI的高等剖析师Rowan Curran说。
“有时你须要的是小货车或皮卡。
不会有一类模型适用于所有用例。
”然而,就目前而言,AI界的传统不雅观点是,越大越好。
这将是代价高昂的。