过去几年,AI竞赛的核心是“算力规模”——堆叠更多GPU、训练更大模型,这让HBM(高带宽内存)备受瞩目。然而现在,风向却在转变。随着生成式AI进入商业化,市场需求逐渐从“训练能力”转向“即时推理能力”。无论是即时语音助手、翻译与客服,还是自动驾驶、金融交易与风控决策,这类应用最担心的并非算力不足,而是延迟过高——而这恰是HBM的短板。
英伟达斥资200亿美元取得Groq的LPU(语言处理单元)技术授权,表面是AI加速器之战的一环,实则与SRAM密切相关。LPU的性能优势并不完全依赖于算力,而更依靠极高速、低延迟的内存存取——这正是SRAM不可替代的强项。
英伟达为何选择购买Groq的“技术”而非芯片?原因在于,英伟达已掌握GPU架构、CUDA生态、HBM封装与供应链,却缺乏极致低延迟推理架构的设计能力。Groq的核心价值,在于通过“大量SRAM+简化控制逻辑”实现比GPU更可预测、更即时的AI响应,尤其适用于AI智能体、实时语音、高频交易和机器人控制等场景。SRAM从昔日的“配角”悄然升级为“主角”。