百度近日正式推出并上线了其原生全模态大模型文心5.0正式版,这一模型以2.4万亿参数的庞大规模和原生全模态统一建模技术,成为人工智能领域的新焦点。该模型不仅支持文本、图像、音频、视频等多种信息的输入与输出,更在40余项权威基准评测中展现出卓越性能,语言与多模态理解能力超越了Gemini-2.5-Pro、GPT-5-High等国际知名模型,稳居国际第一梯队,图像与视频生成能力也与垂直领域专精模型不相上下,整体处于全球领先水平。
据百度集团副总裁、深度学习技术及应用国家工程研究中心副主任吴甜介绍,文心5.0的技术路线与业界多数采用的“后期融合”多模态方案截然不同。它采用统一的自回归架构进行原生全模态建模,将文本、图像、视频、音频等多源数据在同一模型框架中进行联合训练,实现了多模态特征在统一架构下的充分融合与协同优化,从而具备了原生的全模态统一理解与生成能力。文心5.0还采用了超大规模混合专家结构,具备超稀疏激活参数,激活参数比低于3%,在保持模型强大能力的同时,有效提升了推理效率。
在模型训练方面,文心5.0基于大规模工具环境,合成长程任务轨迹数据,并采用基于思维链和行动链的端到端多轮强化学习训练,显著提升了模型的智能体和工具调用能力。这一创新使得文心5.0在处理复杂任务时更加得心应手,为AI应用在真实行业与复杂场景中的落地提供了有力支撑。
百度应用模型研发部负责人贾磊在现场分享了文心应用模型的最新进展。他强调,应用模型的价值不在于模型本身,而在于其在实际应用中的表现。百度希望让模型在真实应用场景里“跑得稳、答得对、用得起”。基于文心基础大模型,百度构建了矩阵模型和专精模型,分别面向产品级应用和通用场景、行业应用和垂直场景。其中,矩阵模型包括文心Lite模型、视频大模型和语音大模型;专精模型则包括搜索闪电专精模型、电商蒸汽机模型、文心数字人大模型及行业大模型。
贾磊还分享了三项技术突破:基于声音Token的端到端合成大模型、5分钟超越真人的直播技术、实时交互数字人技术。这些技术突破不仅提升了AI应用的性能,也拓展了其应用场景。例如,基于声音Token的端到端合成大模型通过离散表示定义token,以MoE大语言模型建模韵律,实现了高质量的声音合成;5分钟超越真人的直播技术则通过对目标音色的少量采样和脸谱化妆,使合成语音具备直播带货所需的情绪、节奏与感染力;实时交互数字人技术则采用三态Token联动架构,实现文本、语音、视频的流式控制,具有低延迟、低成本和高表现力的特点。
在模型应用赋能行业的背后,是百度基于多年积累的全栈自研实力。百度打通了“芯云模体”的全链技术架构,以芯片为底座,智能云为平台框架,以模型支撑各类智能体应用。在文心Moment大会当天,百度千帆平台产品负责人张婷详细介绍了千帆专为行业落地打造的Agent Infra。该平台提供包括文心5.0及全场景150+SOAT模型服务,集成包括百度AI搜索在内的众多工具及MCP和Agent工具链,并结合数据管理和企业级服务,可以为企业提供全周期、稳定支持多场景业务的运行环境,显著降低企业Agent创新门槛。目前,千帆平台上已累计开发超130万个Agents,以百度独家能力“百度AI搜索”为代表的工具日均调用量已突破千万次。
随着全球AI行业的快速发展,AI如何应用于真实世界与行业,从而进一步产生价值,成为行业探索的重点。百度作为国内最早发布大模型的企业之一,正基于其强大的技术实力,持续探索赋能行业的AI解决方案,为AI应用的落地与普及贡献力量。













