(图源:GTC 2024)

英伟达宣告GB200:2080亿晶体管号称史上最强AI芯片!_加快卡_成本 智能助手

也便是说,GB200实际上由两个Blackwell B200 GPU和一个Grace CPU组成的AI加速平台。
据悉,每个B200 GPU含有2080亿个晶体管。
相较于H100,GB200的算力提升了6倍,而在处理多模态特定领域任务时,其算力更是能达到H100的30倍。

(图源:GTC 2024)

算力的提升虽然主要,但并非这次芯片更新的重头戏。
比较之下,更关键的是能耗和本钱的大幅降落。
上一代的H100 AI加速卡峰值功率高达700瓦,而演习一个1.8万亿参数模型须要8000个Hopper GPU和15兆瓦的电力。

与H100比较,新一代的GB200 AI加速卡仅需原来25分之一的本钱和能耗,即用2000个Blackwell GPU就能完成相同的任务,且功耗只有4兆瓦。

大略来说,GB200的性能是H100的7倍,而本钱和能耗更低。

(图源:GTC 2024)

此前便有专家预测,随着大量H100的支配,其总功耗将与一座美国大城市不相上下,乃至超过一些欧洲小国。
而GB200这一巨大的性能提升和能效改进,意味着数据中央和AI运用将能以更低的本钱运行更加繁芜和哀求高的打算任务,从而加速AI技能的发展和运用。

诚然,从十多年前的智好手机,到现如今的AI,随着科技在这十年间飞速发展,AI也迎来了爆发式的增长,随之而来的便是所需算力越来越高。
而目前NVIDIA在AI领域的进度已经甩掉同行一大截了,GB200的推出也很可能匆匆使其他公司加快开拓和推出自己的高性能AI加速卡,从而激化市场竞争。

(图源:GTC 2024)

加上英伟达还推出名为NIM的创新软件和一个用于制造类人机器人的硬件和软件平台,这将进一步使支配人工智能变得更随意马虎,为客户在竞争日益激烈的领域中坚持利用英伟达芯片供应了又一个情由。

(图源:GTC 2024)

长期来看,这将促进技能创新,为用户带来更多、更好的选择,同时推动全体行业向前发展。

总而言之,GB200与前代产品之间的显著性能差异可能会匆匆使数据中央和企业客户更新他们的硬件,以利用新技能带来的上风。
这也意味着,在须要处理大量数据和繁芜打算的领域,AI技能在各行各业的运用将进一步加速。