补齐 AI 推理拼图:英伟达黄仁勋揭秘 Groq LPU 整合路线图

2026-02-27 发布 · 浏览20次 · 点赞0次 · 收藏0次

2 月 27 日消息,科技媒体 Wccftech 昨日(2 月 26 日)发布博文,报道称在 2026 财年第 4 财季(截至 2026 年 1 月)财报会议上,英伟达 CEO 黄仁勋透露了收购 Groq 后的核心整合计划。

重要性方面,黄仁勋将此次价值 200 亿美元(注:现汇率约合 1370.47 亿元人民币)的非授权收购,和当年收购 Mellanox 相提并论,暗示 Groq 将在英伟达的 AI 版图中发挥革命性的基础作用,具体的架构整合细节将于下月召开的 GTC 2026 大会上公布。

战略布局方面,黄仁勋强调 Groq 将补齐 AI 推理阶段的短板,实现超低延迟的解码能力。AI 行业目前正加速迈向多智能体协同(Agentic AI)时代,应用层要求极低的延迟和超快的响应速度。

英伟达凭借 Hopper 和 Blackwell 架构绝对主导了 AI 模型训练市场,并通过 Rubin CPX 架构的注意力加速引擎,覆盖了推理的“预填充”(Prefill)阶段,但在对延迟极度敏感的“解码”(Decode)环节,公司亟需引入 Groq 的技术来确立行业标杆。

技术实现方面,英伟达希望全面释放 Groq 的硬件潜力。Groq 的语言处理单元(LPU)采用片上 SRAM(静态随机存取存储器),能够提供每秒数十 TB 的内部超高带宽。

这种技术路线此前已被 Cerebras(WSE-3)和微软(Maia 300)等巨头采用。通过引入 LPU,AI 智能体能够在短短几秒内完成复杂的逻辑推理步骤,从而有效打破多智能体相互协作时的算力瓶颈。

针对具体的硬件落地形态,广发证券预测英伟达将在 GTC 大会上推出名为“LPX 机架”的混合计算方案。该方案预计会在单个机架内集成 256 个 LPU 单元。

在数据传输方面,LPU 之间将采用原生的准同步芯片间协议进行连接;而 LPU 与 GPU 之间则有望通过 NVLink Fusion 技术互联,从而在预填充阶段高效处理来自 GPU 的海量 KV 缓存卸载。

补齐 AI 推理拼图:英伟达黄仁勋揭秘 Groq LPU 整合路线图 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论
游客
游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。