高性能GPU 79%的市占率,让市场对英伟达的影象勾留在最强大的GPU供应商上,忽略了它强大的软件能力和布局。

对话黄仁勋| H100正周全投产AI软件是比硬件更广阔的市场_模子_英伟 AI简讯

当全天下都在为算力焦虑时,英伟达在GTC大会上给出理解决方案。

英伟达CEO黄仁勋推出了算力平台DGX Cloud,基于这个云平台,用户可以通过网页浏览器直接调用算力,就像点开百度搜索界面一样方便。
而DGX超级打算机则是Open AI采取的算力引擎。

这项云做事目前已经和甲骨文达成互助,微软AWS也即将加入托管。
黄仁勋表示,未来中国也可以采取这项做事,中国创业公司可以期待阿里、百度、腾讯供应的底层算力做事。

办理了算力问题,黄仁勋又给出了模型的办理方案。

面向那些没有大模型研发能力,又须要行业专属模型的公司,英伟达推出了NVIDIA AI Foundations,内置了措辞模型NEMO、视觉模型PICASSO和生物学模型BIONEMO三种模型,企业可以将行业算法加入个中,天生专属于自己的大模型。

在硬件上,英伟达新推出了适宜大模型需求的双 GPU产品 H100 NVL,希望更进一步为客户供应算力做事。

供应算力云平台,让高性能算力不再稀缺

算力是当下最抢手的资源。

除了少数云做事厂商和巨子,大模型企业很少有自培植算力中央的能力。

大模型具有改变各行各业的能力,自GPT 3.5以来,谷歌、百度等公司纷纭推出大模型产品,摩肩相继的发布会日期宣示着,大模型混战已然开始。

作为Open AI背后的算力支柱,也是目前市情上性能最高、性价比最强的已量产产品,A100成为市情上最抢手的芯片。

一时之间,拥有A100芯片的数量,成为行业判断企业大模型能力的主要指标。

一位行业人士见告36氪 ,海内某大模型公司拿到新一轮融资后,就赶紧通过私人渠道买了500块A100芯片。

面对如此紧缺的算力需求,英伟达推出了一项新的AI超级打算做事——DGX Cloud云做事。

DGX Cloud背后是DGX(AI超级打算机)的算力能力,通过这个平台,企业无需购买硬件,可以通过网页浏览的办法获取高性能算力,扩展多节点的AI演习。

DGX配有8个H100 GPU或A100 80GB Tensor Core GPU,每个节点共有640GB GPU内存。
这8个模组具有很好的通信能力,能更好地传输数据
它配有Transformer引擎,可以处理类似ChatGPT的大模型。

此外,DGX还供应了NVIDIA AI Enterprise 套件,带有AI 办理方案事情流程,可以帮助企业优化框架设计和预演习模型,提高工程师的生产效率。

企业可以通过月租的办法获取算力,每月租金36999美元。
可以说,DGX Cloud云平台降落了用户利用算力的门槛。

在支配办法上,DGX支持公有云、私有云和稠浊云的支配办法。
在稠浊版本,客户在利用自己私有云算力的同时,接入DGX Cloud弘大的算力资源能力。
英伟达的DGX官网界面已对外开放。

黄仁勋表示, NVIDIA DGX H100 AI超级打算机已全部全面投入生产,很快将面向环球企业。

目前,英伟达已经和微软Azure、谷歌云和Oracle OCI互助,向用户供应算力能力,利用户能通过浏览器就拥有英伟达DGXAI超级打算机的能力。

Oracle OCI是第一个供应英伟达DGX云的公司,微软 Azure则会从2023年第二季度开始托管,英伟达表示谷歌云也很快会加入互助,但是亚马逊云并未被提到。

在采访中,黄仁勋表示,中国也可以参与这项做事,英伟达在西方是通过和云做事商互助供应算力的,在中国也可以采纳这样的办法,中国的创业企业可以期待阿里巴巴、腾讯和百度供应底层算力支持。

英伟达牌大模型

大模型能力仍旧是少数技能实力极强公司的专属,大模型演习须要耗费大量韶光本钱和算力资源,且难度很高。

英伟达发布了另一个主要平台NVIDIA AI Foundations,为企业供应了低廉甜头大模型的工具,可以天生定制化的大措辞模型(LLM)和天生式AI办理方案,让大模型不再成难堪题。

在老黄看来,在某些特定领域,客户须要通过专有数据来构建自己的模型,以此知足公司安全、隐私等诉求,这些客户须要一个类似台积电一样的代工厂。

在大模型生产过程中,英伟达不仅为用户供应了一个原始模型,还有一系列引擎、接口,优化和降落企业天生模型的难度,同时会供应专家支持,帮助企业针对其自定义用例调度模型。

目前,NVIDIA AI Foundations里有措辞模型NeMo、视觉模型Picasso和生物学模型 BioNeMo三种模型。

以NeMo为例,大模型演习须要大量参数,如果客户能基于NEMO等模型已有的参数和能力,再将该模型接入到专有的知识库中,就可以拥有既履历丰富,又有特定知识的大模型,让模型变得更加精准、高效,且客户后续也可以对模型进行优化和改进。

PICASSO模型可以天生图像、***和3D素材。

一个值得关注的是,Adobe与英伟达正进行互助,将Photoshop、Premiere Pro 和 After Effects 等 Adob​​e Creative Cloud旗舰产品,进行和NVIDIA Picasso 联合开拓。

Adobe的接入意味着,天生式 AI 为创造带来新可能的能力被认可。

此外,英伟达发布了面向生物学(用于药物研发)的 NVIDIA BioNeMo™云做事新模型,希望可以帮助AI医药领域的企业。

目前,NeMo 天生式 AI 云做事处于抢先体验阶段。
Picasso 做事则处于非公开预览阶段,开拓职员可通过干系链接申请利用这些做事。

ChatGPT专用芯片性能再升级

在硬件领域,英伟达也推出了新的产品。

黄仁勋隆重推出了一种新的双 GPU产品 H100 NVL。
它加载了Transformer引擎,很适宜ChatGPT 等大型 LLM。

常规显卡的数据已经无法支撑大模型的数据量需求,H100 NVL单卡显存容量为94GB,最高可供应188GB HBM3 显存。

与HGX A100比较,搭载四对H100和双NVLINK后,做事器的处理速率可以快10倍,且大模型的处理本钱降落一个数量级。

此外,面向***信息,英伟达推出了用于 AI ***的 NVIDIA L40,能供应比 CPU 高 120 倍的 AI ***性能,能够用于***解码和转码功能、***流、增强现实、天生 AI ***等场景。

快手和Google Cloud 是L4的早期用户。

在图像天生上,英伟达推出L40,针对图形和支持 AI 的 2D、***和 3D 图像天生进行了优化。
L40 是英伟达元宇宙Omniverse的引擎,可以用来构建数据中央和运行元宇宙的程序。

在图形推举上,英伟达推出了Grace Hopper for Recommendation Models,紧张用于图形推举模型、矢量数据库和图形神经网络。
它将CPU 和 GPU做了一个连接,属于超级芯片范畴,且两类芯片之间的传输速率可以达到900 GB/s。

3月22日上午,英伟达CEO黄仁勋接管了包括36氪在内的媒体采访,以下为部分采访内容:

问题:中国有很多正在开拓大型措辞模型的中小型公司,担心算力紧缺问题,英伟达推出云做事后,何时会供应给中国客户,这项业务是否会和当前的云做事供应商产生竞争?

黄仁勋:中国会像西方一样参与利用这项做事。
在西方,我们和一些云厂商互助来供应算力能力,他们都非常愉快。

Ampere架构的GPU和Hopper也可以被用于中国市场,能符合出口牵制的规定,他们将被用于中国的云打算巨子的产品中,像阿里巴巴、腾讯、百度都是精良的互助伙伴。

对付中国的在大模型领域创业的初创公司来说,他们正投身于一场天生式人工智能革命,也可以期待阿里巴巴、腾讯、百度供应的人工智能云算力。

问题:目前人工智能芯片需求很大,英伟达的供应情形如何,您怎么看待这种变革?

黄仁勋:自从ChatGPT和人工智能以来,机器视觉打算干系需求迅速增加了。
演习和推理方面的需求都增加了,变革发生得很迅速,我们的供应现在还很好,正在努力为所有客户供应做事。

目前环球的人工智能根本举动步伐和***人工智能打算总量不敷,这也是需求上涨的一个紧张缘故原由。
大模型对云根本举动步伐的需求非常高,有很多创业公司想要利用云,你可以想象到人工智能推理的需求非常大,而且增长显著。

我们正在竞赛,也希望能够跑得更快一点,有足够的供应给每个人。

问题:英伟达是一家在硬件领域的伟大公司,您若何看硬件市场和软件市场的空间?

黄仁勋:人工智能软件是一个比硬件大得多的市场,根本举动步伐做事市场,硬件发卖机会的总额大约在10亿美元;但是,人工智能在自动化、加速等干系的家当,制造业是数亿美元的市场需求;医疗领域,药物创造,科学家实验室研发,药物研究等,又是一个数万亿美元的市场。
每一个行业都远远大于硬件领域。

人工智能第一次有机会成为工程师,药物创造科学家、公司研究助理员,或者是艺术、音乐、电影行业的共同创造者,它可以成为城市建筑的互助设计师,它的增加代价不同于以往任何的软件行业,人工智能展现了一种前所未有的技能和能力。

问题:英伟达有了自己的大模型根本,未来英伟达会专注于自己大模型,还是成为一个平台,也会呈现其它玩家的大模型?

黄仁勋:我们可以先做一下分类,首先,像Deep Mind、谷歌大脑这样的精良实验室,他们有着非常卓越的大模型研究能力,我们和他们非常紧密地互助,为他们供应算力能力,帮助他们推进事情。
我们有很多的人工智能公司互助伙伴。

也有其余一类企业,他们并不肯望开拓人工智能模型,希望利用上述公司的大模型能力。

同时,中间还有一批用户,他们无法利用公开的模型,他们的利用领域太细分了,大概和生物学高度干系,和合成生物学干系,药物设计干系,乃至物理学干系。
它自己的根本模型很可能会发生变革。
在很多个领域,都可以有一些根本模型,然后客户可以用私有的数据来演习这个模型,他们来创造和利用这个模型,来实行特定公司、行业的事情。
那我们就可以和他们互助。
他们有领域知识,有数据,我们有人工智能知识,可以打算。

在***中,我们供应了三个根本模型,一个是措辞,一个是视觉措辞,还有一个是生物学,将来我们也会有其它的模型,目的很大略,不是为了作为产品供应给客户,只是希望帮助公司树立客户。
我们会连续推动模型发展。
我们有6个超级打算机,可以用他们来推进大模型的开拓。

问题:人工智能家当和游戏行业正不才滑,中国的电动车市场也在放缓,公司在计策层面怎么看待这种变革?

黄仁勋:这三个都是非常主要的业务,他们是完备不同的业务。
但是,只管业务不同,在核心上,打算引擎在根本和***加速打算方面是相同的。
这便是为什么,当我们提高打算机图形能力时,它有助于自动驾驶汽车,它们都有相似之处。

我认为游戏行业正在复苏,并没有放缓。
人工智能去年碰着了困难,从我们的角度来看,我们一贯在逐步规复。
数据做得非常好。

我们为电动汽车行业的数据中央和汽车供应数据中央做事,我们供应人工智能来演习模型,以及Omniverse来仿照汽车,纵然放缓也没紧要,他们也都须要投资软件。