Cuando la vida te da muestras: Los beneficios de escalar la inferencia computacional para modelos de lenguaje multilingües
When Life Gives You Samples: The Benefits of Scaling up Inference Compute for Multilingual LLMs
June 25, 2025
Autores: Ammar Khairi, Daniel D'souza, Ye Shen, Julia Kreutzer, Sara Hooker
cs.AI
Resumen
Los avances recientes en los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) han centrado la atención en escalar el cómputo durante la inferencia, mejorando el rendimiento sin necesidad de reentrenar el modelo. Un enfoque común es muestrear múltiples salidas en paralelo y seleccionar una de ellas como resultado final. Sin embargo, los trabajos hasta la fecha se han centrado en el inglés y en unos pocos dominios, como las matemáticas y el código. En contraste, estamos más interesados en técnicas que generalicen en tareas abiertas, tareas formalmente verificables y en múltiples idiomas. En este trabajo, estudiamos cómo escalar de manera robusta el cómputo durante la inferencia para tareas generativas abiertas en un entorno multilingüe y multitarea.
Nuestros hallazgos muestran que tanto la estrategia de muestreo basada en la variación de temperatura como la estrategia de selección deben adaptarse para tener en cuenta diversos dominios y configuraciones lingüísticas. Evaluamos métodos de selección existentes, revelando que las estrategias efectivas en inglés a menudo no logran generalizarse en otros idiomas. Proponemos nuevas estrategias de muestreo y selección específicamente adaptadas para escenarios de inferencia multilingüe y multitarea, y demostramos que producen mejoras notables en diferentes idiomas y tareas. En particular, nuestros métodos combinados de muestreo y selección generan un aumento promedio de +6.8 en las tasas de victoria para nuestros modelos de 8B en las indicaciones de m-ArenaHard-v2.0, frente a modelos propietarios como Gemini. A mayor escala, Command-A (modelo de 111B) equipado con nuestros métodos, muestra una mejora de +9.0 en las tasas de victoria en el mismo punto de referencia con solo cinco muestras frente a la decodificación de una sola muestra, un aumento sustancial con un costo mínimo. Nuestros resultados subrayan la necesidad de enfoques conscientes del idioma y la tarea para el cómputo durante la inferencia, con el objetivo de democratizar las mejoras de rendimiento en idiomas subrepresentados.
English
Recent advancements in large language models (LLMs) have shifted focus toward
scaling inference-time compute, improving performance without retraining the
model. A common approach is to sample multiple outputs in parallel, and select
one of these as the final output. However, work to date has focused on English
and a handful of domains such as math and code. In contrast, we are most
interested in techniques that generalize across open-ended tasks, formally
verifiable tasks, and across languages. In this work, we study how to robustly
scale inference-time compute for open-ended generative tasks in a multilingual,
multi-task setting.
Our findings show that both sampling strategy based on temperature variation
and selection strategy must be adapted to account for diverse domains and
varied language settings. We evaluate existing selection methods, revealing
that strategies effective in English often fail to generalize across languages.
We propose novel sampling and selection strategies specifically adapted for
multilingual and multi-task inference scenarios, and show they yield notable
gains across languages and tasks. In particular, our combined sampling and
selection methods lead to an average +6.8 jump in win-rates for our 8B models
on m-ArenaHard-v2.0 prompts, against proprietary models such as Gemini. At
larger scale, Command-A (111B model) equipped with our methods, shows +9.0
improvement in win-rates on the same benchmark with just five samples against
single-sample decoding, a substantial increase at minimal cost. Our results
underscore the need for language- and task-aware approaches to inference-time
compute, aiming to democratize performance improvements in underrepresented
languages.