谷歌近日推出基于Gemma 3架构的TranslateGemma开放翻译模型系列,包含4B、12B和27B三种参数规模的版本,支持55种核心语言及多模态图像翻译功能。该系列模型已在Kaggle、Hugging Face及Vertex AI平台开放下载,为开发者提供多样化选择。
在性能测试中,TranslateGemma展现出突破性表现。12B版本在WMT24++基准测试中超越参数量达其两倍的Gemma 3 27B基线模型,意味着开发者可用更少算力资源获得更高质量的翻译结果。4B版本虽体积最小,却达到与12B基线模型相当的性能水平,特别适合移动端和边缘计算设备部署。
技术实现上,该系列采用创新的"两阶段微调"工艺。监督微调阶段通过混合Gemini模型生成的高质量合成数据与人工翻译数据训练基础模型;强化学习阶段则引入MetricX-QE和AutoMQM等先进奖励模型,优化译文语境适配度和自然度。这种设计使模型在保持多模态能力的同时,文本翻译质量的提升直接转化为图像文字翻译效果的增强。
语言覆盖方面,模型重点优化了西班牙语、中文、印地语等55种核心语言的翻译质量,并具备扩展至近500种语言的潜力,为濒危语言研究提供技术支撑。部署场景上,4B模型针对手机和边缘设备优化端侧推理效率;12B模型适配消费级笔记本实现研究级性能;27B模型则面向专业场景,可在单张H100 GPU或云端TPU上运行。













