英伟达宣告AI芯片GH200黄仁勋称“它会跋扈狂推理”_英伟_芯片
这款最新发布的人工智能芯片GH200利用与英伟达当前最高真个AI芯片H100相同的GPU,但配备141GB的内存以及72核的ARM芯片,H100的内存为80GB。
“这款芯片是为环球数据中央的横向扩展而设计的。”黄仁勋在发布会上表示。
黄仁勋还表示,新的芯片将于明年第二季度起通过英伟达的经销商供货,并在今年年底前供应样品。但目前这款芯片的价格仍未公布。
英伟达副总裁Ian Buck在一场媒体发布会上表示,新版本的芯片增加了高带宽内存的数量,这种设计能够驱动更大的AI模型运行。GH200经由优化,可以实行AI推理功能,从而有效地为类似ChatGPT等天生式AI运用程序供应支持。
英伟达发布新型芯片的背景是人工智能大模型的规模正在不断扩大。“随着模型参数的增加,它们须要更大的内存才能在不相互连接的单独芯片系统上运行,额外的内存提高了GPU的性能。”Buck说道。
目前英伟达在人工智能芯片市场霸占主导地位,据估计市场份额超过80%。例如支持谷歌的Bard和OpenAI的ChatGPT运行的都是英伟达的GPU。而随着环球的科技巨子、云做事供应商和初创公司都在打劫GPU资源来开拓自己的人工智能模型,英伟达的芯片供不应求。
常日,利用人工智能模型的过程至少分为两个部分:演习和推理。首先,利用大量数据演习模型,这个过程可能须要数月韶光,有时须要数千个GPU;然后,模型在软件中利用推理来进行预测或天生内容。与演习一样,推理的打算本钱很高,并且每次软件运行时都须要大量处理能力。且与演习不同的是,推理险些持续进行,而演习只有当模型须要更新时才须要重新进行。
“你险些可以在GH200上运行任何你想要的大型措辞模型,它会猖獗地进行推理。”黄仁勋说,“大型措辞模型的推理本钱将大幅低落。”
英伟达还发布了一个别系,将两个GH200芯片组合成一台打算机,适用于更大的模型。黄仁勋称之为“环球最大的单体GPU”。
在人工智能芯片供不应求之际,上周英伟达的紧张竞争对手AMD发布了一款AI芯片MI300X,该芯片可支持192GB内存,并具有AI推理能力。谷歌和亚马逊等公司也在设计自己的定制人工智能推理芯片。
英伟达发布会的另一个亮点为OpenUSD的干系进展。OpenUSD近期由美国3D内容行业的5家紧张公司:苹果、英伟达、皮克斯、Adobe和Autodesk联合成立,目标是有一天可能成为“元宇宙”的3D图形标准。该组织正通过促进3D工具和数据更大的互操作性,使开拓者和内容创作者能够描述、编写和仿照大型3D项目,并构建范围不断扩大的3D产品和做事。
今年的SIGGRAPH上,IBM高等副总裁Darío Gil的主题演讲涉及量子打算的未来以及它如何帮助办理实际问题。索尼首席技能官Hiroaki Kitano也在SIGGRAPH上主持一个关于电影创意家当的论坛。
SIGGRAPH也一贯是展示在稠浊虚拟现实(XR)研究前沿的场所,今年也不例外。Meta展示了两款VR和MR头戴设备,个中一款是Butterscotch Varifocal,它将变焦技能与视网膜分辨率VR显示相结合;另一个是Flamera,这是一款打算相机,利用光场技能。Butterscotch Varifocal和Flamera均仍处于Meta的研发阶段,但这些技能可能会在未来引发电子消费产品的灵感。
本文系作者个人观点,不代表本站立场,转载请注明出处!