恐怖的40PB/s性能 NVIDIA将在国内推全新LPU芯片:不降级、不搞特供

倚天百科 百科资讯 2

3月18日消息,昨天的GTC大会上,NVIDIA发布了多款AI系统,还正式推出了全新的LPU芯片——Groq 3 LPU,这是去年200亿美元收购Groq技术后的产物。

相比AI GPU芯片偏重大模型训练,Groq 3 LPU则是专为AI推理而生的,具有低延迟、长上下文等优势,可以与Vera Rubin搭配使用,支撑AI全流程落地。

好消息是,这个LPU芯片国内也有希望用上,外媒援引消息人士的说法称NVIDIA准备推出一款可销往国内市场的Groq芯片。

不同于之前的GPU芯片要阉割性能之后才能出口,这次的Groq芯片不会阉割规格,而且也不是H20那样的国内特供版。

不阉割不搞特供,这样的Groq芯片显然在国内市场销售也会减少很多阻力,不过最大的问题还是美国的审查能否通过,这就要看黄仁勋如何说服美国总统了。

但是话说回来,NVIDIA就算不搞阉割特供Groq芯片给国内,也不好说未来在国内推出的Groq芯片就是昨天发布的Groq 3 LPU,因为后者当前的性能、规格也是非常强的。


这个产品的单芯片叫做LPU30,三星代工制造,整合500MB SRAM缓存,980亿晶体管,FP8性格1.2PFLOPS,AI算力性能远不如Rubin GPU,但150TB/s的带宽远高于HBM4的22TB/s。

Groq 3 LPU芯片会以Groq 3 LPX机架的形式出现,可集成256个LPU30芯片,缓存容量达到了128GB,内存总带宽则提升到了40PB/s,互联带宽也有640TB/s。

总的来说,LPU论AI算力是没法跟GPU比的,但是SRAM的带宽无疑碾压HBM4,而且延迟更低,两种芯片适合的场合不一样,并非谁取代谁的关系,接下来LPU的销售会有一波爆发。