ChatPaper.aiChatPaper

Quando a Vida Te Dá Amostras: Os Benefícios de Escalonar a Computação de Inferência para LLMs Multilíngues

When Life Gives You Samples: The Benefits of Scaling up Inference Compute for Multilingual LLMs

June 25, 2025
Autores: Ammar Khairi, Daniel D'souza, Ye Shen, Julia Kreutzer, Sara Hooker
cs.AI

Resumo

Avanços recentes em modelos de linguagem de grande escala (LLMs) têm direcionado o foco para a escalabilidade da computação durante a inferência, melhorando o desempenho sem a necessidade de retreinar o modelo. Uma abordagem comum é amostrar múltiplas saídas em paralelo e selecionar uma delas como a saída final. No entanto, os trabalhos até o momento concentraram-se no inglês e em alguns domínios específicos, como matemática e código. Em contraste, estamos mais interessados em técnicas que se generalizam para tarefas de natureza aberta, tarefas formalmente verificáveis e em diversos idiomas. Neste trabalho, estudamos como escalar robustamente a computação durante a inferência para tarefas generativas de natureza aberta em um cenário multilíngue e multitarefa. Nossas descobertas mostram que tanto a estratégia de amostragem baseada na variação de temperatura quanto a estratégia de seleção devem ser adaptadas para considerar domínios diversos e diferentes configurações linguísticas. Avaliamos métodos de seleção existentes, revelando que estratégias eficazes em inglês frequentemente falham em se generalizar para outros idiomas. Propomos novas estratégias de amostragem e seleção especificamente adaptadas para cenários de inferência multilíngue e multitarefa, e demonstramos que elas geram ganhos significativos em diversos idiomas e tarefas. Em particular, nossos métodos combinados de amostragem e seleção resultam em um aumento médio de +6,8 nas taxas de vitória para nossos modelos de 8B em prompts do m-ArenaHard-v2.0, em comparação com modelos proprietários como o Gemini. Em escala maior, o Command-A (modelo de 111B) equipado com nossos métodos mostra uma melhoria de +9,0 nas taxas de vitória no mesmo benchmark com apenas cinco amostras em comparação com a decodificação de amostra única, um aumento substancial com custo mínimo. Nossos resultados destacam a necessidade de abordagens conscientes do idioma e da tarefa para a computação durante a inferência, visando democratizar melhorias de desempenho em idiomas sub-representados.
English
Recent advancements in large language models (LLMs) have shifted focus toward scaling inference-time compute, improving performance without retraining the model. A common approach is to sample multiple outputs in parallel, and select one of these as the final output. However, work to date has focused on English and a handful of domains such as math and code. In contrast, we are most interested in techniques that generalize across open-ended tasks, formally verifiable tasks, and across languages. In this work, we study how to robustly scale inference-time compute for open-ended generative tasks in a multilingual, multi-task setting. Our findings show that both sampling strategy based on temperature variation and selection strategy must be adapted to account for diverse domains and varied language settings. We evaluate existing selection methods, revealing that strategies effective in English often fail to generalize across languages. We propose novel sampling and selection strategies specifically adapted for multilingual and multi-task inference scenarios, and show they yield notable gains across languages and tasks. In particular, our combined sampling and selection methods lead to an average +6.8 jump in win-rates for our 8B models on m-ArenaHard-v2.0 prompts, against proprietary models such as Gemini. At larger scale, Command-A (111B model) equipped with our methods, shows +9.0 improvement in win-rates on the same benchmark with just five samples against single-sample decoding, a substantial increase at minimal cost. Our results underscore the need for language- and task-aware approaches to inference-time compute, aiming to democratize performance improvements in underrepresented languages.
PDF101June 26, 2025