谷歌TurboQuant技术来袭:AI内存需求降6倍,存储巨头股价应声而跌

   时间:2026-03-26 12:15 来源:快讯作者:雷科技

谷歌近日发布了一项名为TurboQuant的AI推理优化技术,引发了存储行业的震动。美光、SK海力士等存储巨头股价应声下跌,其中美光股价单日跌幅超过4%,闪迪股价一度暴跌6.5%,SK海力士在韩国股市开盘后也迅速下跌3%。这项技术之所以能产生如此大的影响,是因为它直接针对AI推理过程中的内存瓶颈问题提出了创新解决方案。

TurboQuant的核心突破在于开发了一种高效的内存压缩算法,专门针对AI推理阶段的"键值缓存"(KV Cache)进行优化。KV Cache是AI模型在对话过程中记录上下文信息的短期记忆系统,随着对话长度增加,其占用的内存也会呈指数级增长。谷歌官方测试显示,这项技术能够将KV Cache的内存需求降低至原来的六分之一,这意味着在相同硬件条件下,AI模型可以处理更长的对话或更复杂的任务。

该技术实现内存压缩的关键在于两个创新:首先是通过PolarQuant方法将原本32位的高精度数据无损压缩至3bit级别,其次利用QJL算法对压缩过程中产生的误差进行修正。这种"压缩-修正"的双重机制确保了AI模型在内存占用大幅减少的同时,不会出现性能下降或理解能力减弱的情况。对于依赖长上下文处理的Agent类AI产品(如OpenClaw等)而言,这项技术可能带来革命性的提升。

从产业影响来看,TurboQuant有望重塑AI应用的成本结构。内存和算力是当前AI推理服务的两大主要成本,内存需求的六倍缩减将使许多高成本AI服务变得更易普及。更关键的是,这项技术可能推动AI从云端向边缘设备迁移——智能手机、车载系统甚至物联网设备都有望运行更强大的AI模型,这将极大拓展AI技术的应用场景和使用灵活性。

不过这项技术仍面临现实挑战。目前TurboQuant仅在Gemma和Mistral等开源模型上完成部分测试,其在谷歌自家Gemini模型及其他商业模型上的效果尚未得到验证。该技术专注于推理阶段的内存优化,并未涉及模型训练成本的降低,也无法提升模型本身的理解能力。存储行业分析师指出,虽然短期股价波动反映了市场担忧,但长期来看,内存需求的结构性变化可能催生新的技术竞赛和市场机遇。

 
 
更多>同类天脉资讯
全站最新
热门内容
媒体信息
新传播周刊
新传播,传播新经济之声!
网站首页  |  关于我们  |  联系方式  |  版权隐私  |  RSS订阅  |  违规举报 鲁公网安备37010202700497号