就在今次GTC 2026大会之上,英伟达抛出重磅讯息——原规划中的Rubin CPX项目竟被正式搁置,转而全力聚焦Groq LPU/LPX!此波操作直让AI圈炸开了锅,不少人纷纷发问:英伟达这唱的是哪一出?

虽说二者同属Vera Rubin系统的AI推理加速器,但分工却判若云泥。若把AI推理比作一场舞台剧,Rubin CPX便是负责搭台布景的幕后统筹,专司预填充阶段——处理上下文与提示;而Groq LPU则是登台表演的核心主角,专攻解码阶段,生成我们所见的AI输出内容。
君不见当下AI行业对推理输出效率的要求日甚一日,用户与AI交互时,谁耐烦等半天才得回复?遑论未来多智能体系统中,AI间的交流速度必得快如闪电!

其一,Groq LPU的优势实在彰明较著——它的SRAM带宽高达150TB/s,较HBM的22TB/s快了数倍有余,于带宽敏感的解码操作而言,简直是量身打造的神兵利器!更不必说它无需如Rubin CPX那般占用海量GDDR6内存,在现下内存资源紧俏的大环境里,这一点不啻为救命稻草!
其二,英伟达近来的更新节奏是“两年一换代、一年一迭代”,在Rubin世代同期研发两颗新芯片,技术难度与资源投入皆堪称巨大,莫如集中精力将Groq GPU打磨至登峰造极之境。

依英伟达所言,Groq LPU与Rubin GPU组合之后,能将AI代理间的通信吞吐量从每秒100个token提升至1500个以上!这意味着未来多智能体系统的运行速度将获质的飞跃,无论是自动驾驶、智能客服还是工业机器人,皆能变得更高效、更具智性。
更不必说这还能助英伟达在低延迟推理领域抵御竞争对手,比如此前一直挑战英伟达的Cerebras公司,这下恐怕得重新掂量掂量自身分量了!
有人称英伟达此举是精准押注未来趋势,也有人担忧会不会错失Rubin CPX的潜在机遇?你认为英伟达这次的调整是对是错?不妨移步评论区,聊聊你的看法!
图片来源于网络,侵权请联系删除
更新时间:2026-03-23
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号