4月24日,人工智能领域迎来重要进展——DeepSeek-V4预览版正式发布并同步开源。该模型在Agent能力、世界知识储备与推理性能三大核心维度实现突破,被宣称达到国内及开源领域领先水平。此次发布的DeepSeek-V4包含Pro与Flash两个版本,均支持百万级(1M)token超长上下文处理,同时通过技术创新将计算资源需求大幅降低:每个标记的推理FLOP减少73%,KV缓存内存占用压缩90%。
全球最大AI模型API聚合平台OpenRouter的数据显示,发布首日V4-Flash版本调用量达270亿token,V4-Pro版本为47.9亿token。尽管调用量庞大,但两个版本均未进入平台排行榜前十。在主流评测机构的测试中,DeepSeek-V4展现出差异化竞争力:Artificial Analysis的推理专项测评显示,V4-Pro以52分位列全球第二大开源推理模型,仅次于Kimi K2.6;V4-Flash得47分,综合性能对标Claude Sonnet 4.6全力版,处于顶尖闭源模型与中端主流模型之间。
智能体任务表现成为V4-Pro的突出优势。在真实场景工作测试中,该模型以1554分超越Kimi K2.6(1484分)、GLM-5.1(1535分)等竞品,位居所有开源权重模型首位。知识储备方面,V4-Pro在全知综合评测指标(AA-Omniscience)中得-10分,较前代提升11分,主要得益于知识回答准确率的优化;V4-Flash得-23分,与V3.2基本持平。但模型幻觉问题显著加剧:V4-Pro幻觉率达94%,V4-Flash高达96%,意味着在未知场景下模型几乎都会强行生成答案,这一数据较V3.2的82%明显恶化。
成本结构呈现两极分化特征。完成全套人工分析智能指数测评,V4-Pro运行成本为1071美元,虽仅为Claude Opus 4.7(4811美元)的四分之一,但显著高于Kimi K2.6(948美元)、GLM-5.1(544美元)等同类开源模型,更远超前代V3.2的71美元。V4-Flash则以113美元的运行成本展现出显著优势。高额Token消耗成为成本居高的核心因素——V4-Pro在标准测评中消耗1.9亿token,V4-Flash更达2.4亿token,位列测评模型中最高消耗梯队。
技术路线转向引发产业关注。DeepSeek在技术报告中确认,V4已在NVIDIA GPU与华为昇腾NPUs平台验证精细粒度EP(专家并行)方案,通用推理任务加速1.50-1.73倍,时延敏感场景加速达1.96倍。华为同步宣布昇腾950超节点全系列产品支持V4系列模型,通过融合kernel与多流并行技术降低Attention计算开销,结合量化算法实现高吞吐、低时延部署。这一合作被市场研究机构Omdia视为"中国AI行业里程碑",其半导体研究主管指出:"DeepSeek适配昇腾芯片,标志着中国顶级大模型实现国产化硬件运行,对构建自主AI生态具有战略意义。"
资本市场对此反应积极。高盛分析师观察到,V4发布后GPU及国产芯片板块股价走强,核心关注点转向支撑模型的芯片架构——包括训练用芯片与推理硬件的适配性。华为昇腾AI计算集群的适配能力,被视为中国自研硬件生态支撑前沿模型迭代的重要信号。这种技术转向印证了英伟达CEO黄仁勋的担忧:其在本月专访中曾警告,若DeepSeek优先在华为平台发布,将对美国技术优势构成"灾难性冲击",尤其在高端算力采购受限背景下,专用优化可能使英伟达陷入被动。
与前代产品引发的市场震动不同,DeepSeek-V4未导致美国科技股大幅波动。晨星分析师认为,交易市场已充分消化中国AI竞争力的预期,V4的差异化定位将国内其他开源模型直接划入竞品范围。布鲁金斯学会研究员Kyle Chan指出,V4的百万token上下文能力与华为芯片适配性令人印象深刻,但未复刻前代产品的"现象级影响",因为外界对中国AI能力的期待值已显著提升。












