1 月 16 日消息,谷歌昨日(1 月 15 日)发布博文,基于 Gemma 3 架构,推出 TranslateGemma 开放翻译模型系列 ,共有 4B、12B 和 27B 三种参数规模,支持 55 种核心语言及多模态图像翻译,目前已在 Kaggle 和 Hugging Face 开放下载。
性能方面,谷歌团队利用 WMT24++ 基准(包含高、中、低资源语言的 55 种语言)和 MetricX 指标进行了严格测试。
这个系列提供4B、12B、27B三种参数规模,支持55种核心语言,还能处理多模态图像翻译(直接翻译图片里的文字)。模型已在Kaggle和Hugging Face开放下载,开发者可以立刻上手!
性能亮眼:小模型打败大模型
谷歌团队用严格的WMT24++基准(覆盖高、中、低资源55种语言)和MetricX指标测试,结果让人惊喜:
- 12B版本翻译质量居然超越了参数量大一倍的Gemma 3 27B基线模型!
这意味着:用一半算力就能获得更高保真翻译,吞吐量大幅提升、延迟显著降低——对实时应用超级友好!
甚至最小的4B模型也非常能打,性能直逼12B基线,完美适配移动端和边缘设备。
技术秘诀:独特的“两阶段微调”
TranslateGemma的高智能来自精妙的训练工艺:
- 监督微调(SFT):混合Gemini生成的高质量合成数据 + 人工翻译数据,对Gemma 3底座进行打磨。
RLAIF: Scaling Reinforcement Learning from AI feedback | Encord
- 强化学习(RL):引入MetricX-QE和AutoMQM等奖励模型,进一步引导模型输出更自然、更贴合语境的译文。
语言覆盖 + 多模态惊喜
模型重点优化了55种核心语言(包括西班牙语、中文、印地语等),还能扩展训练近500种语言,为研究濒危语言提供强大工具。
得益于Gemma 3的多模态基因,新模型无需额外训练,就能直接提升图像内文字翻译效果——文字+图片无缝处理!
精准部署场景,一款模型搞定一切
三种尺寸各有专属战场:
- 4B:专为手机、边缘设备优化,实现端侧高效推理(离线翻译不再是梦);
Boeleo Language Translator Device,Two Way Electronic Foreign …
- 12B:完美跑在消费级笔记本上,本地开发也能拥有研究级性能;
- 27B:追求极致质量时首选,可在单张H100 GPU或云端TPU上流畅运行。
所有模型现已在Kaggle、Hugging Face 和 Vertex AI上线,赶紧去下载体验吧!这波开源操作,又一次让AI翻译门槛大幅降低,开发者福利拉满!




