对话黄仁勋| H100正周全投产AI软件是比硬件更广阔的市场_模子_英伟
高性能GPU 79%的市占率,让市场对英伟达的影象勾留在最强大的GPU供应商上,忽略了它强大的软件能力和布局。
当全天下都在为算力焦虑时,英伟达在GTC大会上给出理解决方案。
英伟达CEO黄仁勋推出了算力平台DGX Cloud,基于这个云平台,用户可以通过网页浏览器直接调用算力,就像点开百度搜索界面一样方便。而DGX超级打算机则是Open AI采取的算力引擎。
这项云做事目前已经和甲骨文达成互助,微软AWS也即将加入托管。黄仁勋表示,未来中国也可以采取这项做事,中国创业公司可以期待阿里、百度、腾讯供应的底层算力做事。
办理了算力问题,黄仁勋又给出了模型的办理方案。
面向那些没有大模型研发能力,又须要行业专属模型的公司,英伟达推出了NVIDIA AI Foundations,内置了措辞模型NEMO、视觉模型PICASSO和生物学模型BIONEMO三种模型,企业可以将行业算法加入个中,天生专属于自己的大模型。
在硬件上,英伟达新推出了适宜大模型需求的双 GPU产品 H100 NVL,希望更进一步为客户供应算力做事。
供应算力云平台,让高性能算力不再稀缺
算力是当下最抢手的资源。
除了少数云做事厂商和巨子,大模型企业很少有自培植算力中央的能力。
大模型具有改变各行各业的能力,自GPT 3.5以来,谷歌、百度等公司纷纭推出大模型产品,摩肩相继的发布会日期宣示着,大模型混战已然开始。
作为Open AI背后的算力支柱,也是目前市情上性能最高、性价比最强的已量产产品,A100成为市情上最抢手的芯片。
一时之间,拥有A100芯片的数量,成为行业判断企业大模型能力的主要指标。
一位行业人士见告36氪 ,海内某大模型公司拿到新一轮融资后,就赶紧通过私人渠道买了500块A100芯片。
面对如此紧缺的算力需求,英伟达推出了一项新的AI超级打算做事——DGX Cloud云做事。
DGX Cloud背后是DGX(AI超级打算机)的算力能力,通过这个平台,企业无需购买硬件,可以通过网页浏览的办法获取高性能算力,扩展多节点的AI演习。
DGX配有8个H100 GPU或A100 80GB Tensor Core GPU,每个节点共有640GB GPU内存。这8个模组具有很好的通信能力,能更好地传输数据。它配有Transformer引擎,可以处理类似ChatGPT的大模型。
此外,DGX还供应了NVIDIA AI Enterprise 套件,带有AI 办理方案事情流程,可以帮助企业优化框架设计和预演习模型,提高工程师的生产效率。
企业可以通过月租的办法获取算力,每月租金36999美元。可以说,DGX Cloud云平台降落了用户利用算力的门槛。
在支配办法上,DGX支持公有云、私有云和稠浊云的支配办法。在稠浊版本,客户在利用自己私有云算力的同时,接入DGX Cloud弘大的算力资源能力。英伟达的DGX官网界面已对外开放。
黄仁勋表示, NVIDIA DGX H100 AI超级打算机已全部全面投入生产,很快将面向环球企业。
目前,英伟达已经和微软Azure、谷歌云和Oracle OCI互助,向用户供应算力能力,利用户能通过浏览器就拥有英伟达DGXAI超级打算机的能力。
Oracle OCI是第一个供应英伟达DGX云的公司,微软 Azure则会从2023年第二季度开始托管,英伟达表示谷歌云也很快会加入互助,但是亚马逊云并未被提到。
在采访中,黄仁勋表示,中国也可以参与这项做事,英伟达在西方是通过和云做事商互助供应算力的,在中国也可以采纳这样的办法,中国的创业企业可以期待阿里巴巴、腾讯和百度供应底层算力支持。
英伟达牌大模型
大模型能力仍旧是少数技能实力极强公司的专属,大模型演习须要耗费大量韶光本钱和算力资源,且难度很高。
英伟达发布了另一个主要平台NVIDIA AI Foundations,为企业供应了低廉甜头大模型的工具,可以天生定制化的大措辞模型(LLM)和天生式AI办理方案,让大模型不再成难堪题。
在老黄看来,在某些特定领域,客户须要通过专有数据来构建自己的模型,以此知足公司安全、隐私等诉求,这些客户须要一个类似台积电一样的代工厂。
在大模型生产过程中,英伟达不仅为用户供应了一个原始模型,还有一系列引擎、接口,优化和降落企业天生模型的难度,同时会供应专家支持,帮助企业针对其自定义用例调度模型。
目前,NVIDIA AI Foundations里有措辞模型NeMo、视觉模型Picasso和生物学模型 BioNeMo三种模型。
以NeMo为例,大模型演习须要大量参数,如果客户能基于NEMO等模型已有的参数和能力,再将该模型接入到专有的知识库中,就可以拥有既履历丰富,又有特定知识的大模型,让模型变得更加精准、高效,且客户后续也可以对模型进行优化和改进。
PICASSO模型可以天生图像、***和3D素材。
一个值得关注的是,Adobe与英伟达正进行互助,将Photoshop、Premiere Pro 和 After Effects 等 Adobe Creative Cloud旗舰产品,进行和NVIDIA Picasso 联合开拓。
Adobe的接入意味着,天生式 AI 为创造带来新可能的能力被认可。
此外,英伟达发布了面向生物学(用于药物研发)的 NVIDIA BioNeMo™云做事新模型,希望可以帮助AI医药领域的企业。
目前,NeMo 天生式 AI 云做事处于抢先体验阶段。Picasso 做事则处于非公开预览阶段,开拓职员可通过干系链接申请利用这些做事。
ChatGPT专用芯片性能再升级
在硬件领域,英伟达也推出了新的产品。
黄仁勋隆重推出了一种新的双 GPU产品 H100 NVL。它加载了Transformer引擎,很适宜ChatGPT 等大型 LLM。
常规显卡的数据已经无法支撑大模型的数据量需求,H100 NVL单卡显存容量为94GB,最高可供应188GB HBM3 显存。
与HGX A100比较,搭载四对H100和双NVLINK后,做事器的处理速率可以快10倍,且大模型的处理本钱降落一个数量级。
此外,面向***信息,英伟达推出了用于 AI ***的 NVIDIA L40,能供应比 CPU 高 120 倍的 AI ***性能,能够用于***解码和转码功能、***流、增强现实、天生 AI ***等场景。
快手和Google Cloud 是L4的早期用户。
在图像天生上,英伟达推出L40,针对图形和支持 AI 的 2D、***和 3D 图像天生进行了优化。L40 是英伟达元宇宙Omniverse的引擎,可以用来构建数据中央和运行元宇宙的程序。
在图形推举上,英伟达推出了Grace Hopper for Recommendation Models,紧张用于图形推举模型、矢量数据库和图形神经网络。它将CPU 和 GPU做了一个连接,属于超级芯片范畴,且两类芯片之间的传输速率可以达到900 GB/s。
3月22日上午,英伟达CEO黄仁勋接管了包括36氪在内的媒体采访,以下为部分采访内容:
问题:中国有很多正在开拓大型措辞模型的中小型公司,担心算力紧缺问题,英伟达推出云做事后,何时会供应给中国客户,这项业务是否会和当前的云做事供应商产生竞争?
黄仁勋:中国会像西方一样参与利用这项做事。在西方,我们和一些云厂商互助来供应算力能力,他们都非常愉快。
Ampere架构的GPU和Hopper也可以被用于中国市场,能符合出口牵制的规定,他们将被用于中国的云打算巨子的产品中,像阿里巴巴、腾讯、百度都是精良的互助伙伴。
对付中国的在大模型领域创业的初创公司来说,他们正投身于一场天生式人工智能革命,也可以期待阿里巴巴、腾讯、百度供应的人工智能云算力。
问题:目前人工智能芯片需求很大,英伟达的供应情形如何,您怎么看待这种变革?
黄仁勋:自从ChatGPT和人工智能以来,机器视觉打算干系需求迅速增加了。演习和推理方面的需求都增加了,变革发生得很迅速,我们的供应现在还很好,正在努力为所有客户供应做事。
目前环球的人工智能根本举动步伐和***人工智能打算总量不敷,这也是需求上涨的一个紧张缘故原由。大模型对云根本举动步伐的需求非常高,有很多创业公司想要利用云,你可以想象到人工智能推理的需求非常大,而且增长显著。
我们正在竞赛,也希望能够跑得更快一点,有足够的供应给每个人。
问题:英伟达是一家在硬件领域的伟大公司,您若何看硬件市场和软件市场的空间?
黄仁勋:人工智能软件是一个比硬件大得多的市场,根本举动步伐做事市场,硬件发卖机会的总额大约在10亿美元;但是,人工智能在自动化、加速等干系的家当,制造业是数亿美元的市场需求;医疗领域,药物创造,科学家实验室研发,药物研究等,又是一个数万亿美元的市场。每一个行业都远远大于硬件领域。
人工智能第一次有机会成为工程师,药物创造科学家、公司研究助理员,或者是艺术、音乐、电影行业的共同创造者,它可以成为城市建筑的互助设计师,它的增加代价不同于以往任何的软件行业,人工智能展现了一种前所未有的技能和能力。
问题:英伟达有了自己的大模型根本,未来英伟达会专注于自己大模型,还是成为一个平台,也会呈现其它玩家的大模型?
黄仁勋:我们可以先做一下分类,首先,像Deep Mind、谷歌大脑这样的精良实验室,他们有着非常卓越的大模型研究能力,我们和他们非常紧密地互助,为他们供应算力能力,帮助他们推进事情。我们有很多的人工智能公司互助伙伴。
也有其余一类企业,他们并不肯望开拓人工智能模型,希望利用上述公司的大模型能力。
同时,中间还有一批用户,他们无法利用公开的模型,他们的利用领域太细分了,大概和生物学高度干系,和合成生物学干系,药物设计干系,乃至物理学干系。它自己的根本模型很可能会发生变革。在很多个领域,都可以有一些根本模型,然后客户可以用私有的数据来演习这个模型,他们来创造和利用这个模型,来实行特定公司、行业的事情。那我们就可以和他们互助。他们有领域知识,有数据,我们有人工智能知识,可以打算。
在***中,我们供应了三个根本模型,一个是措辞,一个是视觉措辞,还有一个是生物学,将来我们也会有其它的模型,目的很大略,不是为了作为产品供应给客户,只是希望帮助公司树立客户。我们会连续推动模型发展。我们有6个超级打算机,可以用他们来推进大模型的开拓。
问题:人工智能家当和游戏行业正不才滑,中国的电动车市场也在放缓,公司在计策层面怎么看待这种变革?
黄仁勋:这三个都是非常主要的业务,他们是完备不同的业务。但是,只管业务不同,在核心上,打算引擎在根本和***加速打算方面是相同的。这便是为什么,当我们提高打算机图形能力时,它有助于自动驾驶汽车,它们都有相似之处。
我认为游戏行业正在复苏,并没有放缓。人工智能去年碰着了困难,从我们的角度来看,我们一贯在逐步规复。数据做得非常好。
我们为电动汽车行业的数据中央和汽车供应数据中央做事,我们供应人工智能来演习模型,以及Omniverse来仿照汽车,纵然放缓也没紧要,他们也都须要投资软件。
本文系作者个人观点,不代表本站立场,转载请注明出处!