一家人工智能芯片初创公司 Groq 曾长期默默无闻,但现在它利用专为大型措辞模型(LLM)(如 GPT、Llama 和 Mistral LLM)设计的措辞处理单元(LPU),在供应超快推理速率方面取得了重大进展。

Groq LPU人工智能推理芯片的运算表现可与主流厂商媲美_令牌_速度 AI简讯

Groq LPU 是基于张量流处理器(TSP)架构的单核单元,在 INT8 时可达到 750 TOPS,在 FP16 时可达到 188 TeraFLOPS,具有 320x320 领悟点乘矩阵乘法,此外还有 5120 个矢量 ALU。

Groq LPU 拥有 80 TB/s 的带宽,并具有大规模并发能力,其本地 SRAM 容量为 230 MB。
所有这些共同浸染,为 Groq 供应了出色的性能,在过去几天的互联网上掀起了波澜。

在Mixtral 8x7B 模型中,Groq LPU 的推理速率为每秒 480 个令牌,在业内处于领先地位。
在 Llama 2 70B 等高下文长度为 4096 个令牌的模型中,Groq 每秒可供应 300 个令牌,而在高下文长度为 2048 个令牌的较小 Llama 2 7B 中,Groq LPU 每秒可输出 750 个令牌。

根据LLMPerf Leaderboard 的数据,Groq LPU 在推断 LLMs Llama 时击败了基于 GPU 的云供应商,其配置参数从 70 亿到 700 亿不等。
在令牌吞吐量(输出)和到第一个令牌的韶光(延迟)方面,Groq处于领先地位,实现了最高的吞吐量和第二低的延迟。

ChatGPT 采取 GPT-3.5 免费版,每秒可输出约 40 个令牌。
目前的开源 LLM(如 Mixtral 8x7B)可以在大多数基准测试中击败 GPT 3.5,现在这些开源 LLM 的运行速率险些可以达到 500 令牌每秒。
随着像 Groq 的 LPU 这样的快速推理芯片开始遍及,等待谈天机器人回应的日子彷佛开始逐步消逝了。

这家人工智能初创公司直接威胁到英伟达(NVIDIA)、AMD 和英特尔供应的推理硬件,但业界是否乐意采取 LPU 仍是个问题,您可以在这里进行试用:

https://groq.com/