谷歌发布TranslateGemma翻译模型:多尺寸适配多场景 性能卓越还开源

   时间:2026-01-16 14:17 来源:快讯作者:IT之家

谷歌近日推出基于Gemma 3架构的TranslateGemma开放翻译模型系列,包含4B、12B和27B三种参数规模的版本,支持55种核心语言及多模态图像翻译功能。该系列模型已在Kaggle、Hugging Face及Vertex AI平台开放下载,为开发者提供多样化选择。

在性能测试中,TranslateGemma展现出突破性表现。12B版本在WMT24++基准测试中超越参数量达其两倍的Gemma 3 27B基线模型,意味着开发者可用更少算力资源获得更高质量的翻译结果。4B版本虽体积最小,却达到与12B基线模型相当的性能水平,特别适合移动端和边缘计算设备部署。

技术实现上,该系列采用创新的"两阶段微调"工艺。监督微调阶段通过混合Gemini模型生成的高质量合成数据与人工翻译数据训练基础模型;强化学习阶段则引入MetricX-QE和AutoMQM等先进奖励模型,优化译文语境适配度和自然度。这种设计使模型在保持多模态能力的同时,文本翻译质量的提升直接转化为图像文字翻译效果的增强。

语言覆盖方面,模型重点优化了西班牙语、中文、印地语等55种核心语言的翻译质量,并具备扩展至近500种语言的潜力,为濒危语言研究提供技术支撑。部署场景上,4B模型针对手机和边缘设备优化端侧推理效率;12B模型适配消费级笔记本实现研究级性能;27B模型则面向专业场景,可在单张H100 GPU或云端TPU上运行。

 
 
更多>同类天脉资讯
全站最新
热门内容
媒体信息
新传播周刊
新传播,传播新经济之声!
网站首页  |  关于我们  |  联系方式  |  版权隐私  |  RSS订阅  |  违规举报