ChatPaper.aiChatPaper

Relatório Técnico da Gemma

TranslateGemma Technical Report

January 13, 2026
Autores: Mara Finkelstein, Isaac Caswell, Tobias Domhan, Jan-Thorsten Peter, Juraj Juraska, Parker Riley, Daniel Deutsch, Cole Dilanni, Colin Cherry, Eleftheria Briakou, Elizabeth Nielsen, Jiaming Luo, Kat Black, Ryan Mullins, Sweta Agrawal, Wenda Xu, Erin Kats, Stephane Jaskiewicz, Markus Freitag, David Vilar
cs.AI

Resumo

Apresentamos o TranslateGemma, uma suíte de modelos abertos de tradução automática baseada nos modelos fundamentais Gemma 3. Para aprimorar as capacidades multilingues inerentes do Gemma 3 para a tarefa de tradução, empregamos um processo de afinação em duas etapas. Primeiro, é realizada uma afinação supervisionada utilizando uma mistura rica de dados paralelos sintéticos de larga escala e de alta qualidade, gerados através de modelos de última geração, e dados paralelos traduzidos por humanos. Esta etapa é seguida por uma fase de aprendizagem por reforço, na qual otimizamos a qualidade da tradução usando um conjunto de modelos de recompensa, incluindo o MetricX-QE e o AutoMQM, com foco na qualidade da tradução. Demonstramos a eficácia do TranslateGemma com avaliação humana no conjunto de testes WMT25 em 10 pares de línguas e com avaliação automática no benchmark WMT24++ em 55 pares de línguas. As métricas automáticas mostram ganhos consistentes e substanciais em relação aos modelos baseline Gemma 3 em todos os tamanhos. Notavelmente, os modelos TranslateGemma menores frequentemente alcançam um desempenho comparável aos modelos baseline maiores, oferecendo uma eficiência melhorada. Também mostramos que os modelos TranslateGemma mantêm fortes capacidades multimodais, com desempenho aprimorado no benchmark de tradução de imagens Vistra. A libertação dos modelos abertos TranslateGemma visa fornecer à comunidade de pesquisa ferramentas poderosas e adaptáveis para a tradução automática.
English
We present TranslateGemma, a suite of open machine translation models based on the Gemma 3 foundation models. To enhance the inherent multilingual capabilities of Gemma 3 for the translation task, we employ a two-stage fine-tuning process. First, supervised fine-tuning is performed using a rich mixture of high-quality large-scale synthetic parallel data generated via state-of-the-art models and human-translated parallel data. This is followed by a reinforcement learning phase, where we optimize translation quality using an ensemble of reward models, including MetricX-QE and AutoMQM, targeting translation quality. We demonstrate the effectiveness of TranslateGemma with human evaluation on the WMT25 test set across 10 language pairs and with automatic evaluation on the WMT24++ benchmark across 55 language pairs. Automatic metrics show consistent and substantial gains over the baseline Gemma 3 models across all sizes. Notably, smaller TranslateGemma models often achieve performance comparable to larger baseline models, offering improved efficiency. We also show that TranslateGemma models retain strong multimodal capabilities, with enhanced performance on the Vistra image translation benchmark. The release of the open TranslateGemma models aims to provide the research community with powerful and adaptable tools for machine translation.
PDF202February 27, 2026