新年伊始,人工智能领域迎来架构创新热潮,多个重大突破为行业注入新动能。元旦当天,DeepSeek推出mHC框架,普林斯顿与加州大学洛杉矶分校联合团队提出DDL架构;仅隔数日,meta前首席科学家Yann LeCun在专访中透露,其主导的全新模型架构将于一年内完成雏形开发。这些进展标志着AI技术正从单纯依赖数据规模扩张的Scaling Law阶段,转向架构创新与算力优化协同驱动的新阶段。
当前AI产业面临双重挑战:一方面,OpenAI等头部企业的下一代模型性能提升趋缓,谷歌、Anthropic等厂商的研发节奏因高质量数据短缺而调整;另一方面,应用场景对模型能力的要求持续攀升。在此背景下,架构创新成为突破瓶颈的关键——mHC通过优化计算效率降低训练成本,DDL的动态记忆管理提升复杂任务处理能力,而JEPA架构则突破语言依赖,为机器人、智能眼镜等空间交互设备提供底层支持。行业专家指出,三大架构并非替代关系,未来更可能形成互补融合的技术路径。
应用端企业正加速构建差异化竞争力。联想集团旗下天禧AI平台月活用户突破2.8亿,年分发量超40亿次,开发者生态已孕育5000余款智能体应用;AI编程工具Cursor年化收入达10亿美元,AI Agent产品Manus在8个月内实现1亿美元营收,Perplexity搜索工具通过拓展Agent功能将ARR提升至2亿美元。这些头部企业的成功,迫使初创企业必须在架构选型与场景适配间做出更精准的战略抉择——既要匹配当前细分需求,又要预留技术升级空间,否则将在日益分化的市场格局中失去先机。
联想集团的多模型整合策略引发行业关注。其天禧AI平台同时接入DeepSeek、豆包、文心一言等十余个主流大模型,用户可按需调用不同架构的模型能力。该平台通过全时空记忆管理、多智能体协同等技术,在工业、政务、科研等场景中实现"AI Twin"个性化体验;企业级产品联想百应智能体则集成DeepSeek、通义千问等模型,覆盖从云端到边缘设备的全栈需求。这种"集百家之长"的策略,既规避了单一架构的技术风险,又为不同场景提供了定制化解决方案。
产业链上下游的协同效应正在显现。12月30日,meta以数十亿美元收购AI Agent企业Manus,印证多模型整合策略的商业价值;1月3日,英伟达CEO黄仁勋与联想集团CEO杨元庆对话时提出,未来AI系统将融合公有云前沿模型与企业私有定制模型,这一趋势需要强大的硬件载体支撑。两大科技巨头的动向表明,从芯片厂商到应用开发商,全产业链正形成闭环生态——联想集团凭借覆盖200余个场景的业务布局,为不同架构模型提供了落地试验场,而其与英伟达联合研发的RTX Pro服务器,则标志着通用型算力基础设施进入新阶段。
算力基础设施领域迎来新一轮升级竞赛。以mHC架构为例,其依赖的FP32高精度计算格式对内存带宽和芯片互联性能提出更高要求,目前主要适配英伟达生态。联想集团1月4日发布的问天WR5215 G5服务器,通过单路设计将AI工作负载性能提升25%,液冷技术使整机功耗降低25%;该产品不仅兼容国产操作系统和数据库,还通过模块化设计降低客户迁移成本。与此同时,联想与英伟达联合开发的RTX Pro服务器,则瞄准需要通用型算力的混合场景,这种"双轨策略"既覆盖主流市场需求,又为定制化解决方案预留空间。
市场格局正在悄然重塑。联想集团服务器业务全球市场份额位居前三,AI服务器领域更跃居第二,其应对架构创新的策略或成为行业范本。尽管谷歌TPU、亚马逊Trainium3等定制芯片仍占据特定市场,但英伟达芯片在谷歌、亚马逊的采购清单中仍占重要比例——分析师预测,明年英伟达GB300系列服务器机柜出货量中,这两家企业将采购3000至4000台。对于联想等硬件厂商而言,真正的考验在于如何预判大模型厂商的算力部署节奏,并通过快速迭代保持技术适配性。随着DeepSeek等企业即将发布新一代模型,这场围绕架构创新的竞赛已进入白热化阶段。











