Когда жизнь дает вам выборки: преимущества масштабирования вычислительных ресурсов для вывода в многоязычных языковых моделях
When Life Gives You Samples: The Benefits of Scaling up Inference Compute for Multilingual LLMs
June 25, 2025
Авторы: Ammar Khairi, Daniel D'souza, Ye Shen, Julia Kreutzer, Sara Hooker
cs.AI
Аннотация
Последние достижения в области больших языковых моделей (LLM) сместили акцент на масштабирование вычислений на этапе вывода, улучшая производительность без необходимости переобучения модели. Распространённый подход заключается в параллельной генерации нескольких выходных данных с последующим выбором одного из них в качестве окончательного результата. Однако до сих пор исследования сосредоточены на английском языке и ограниченном наборе областей, таких как математика и программирование. В отличие от этого, нас больше интересуют методы, которые обобщаются на открытые задачи, формально проверяемые задачи и различные языки. В данной работе мы изучаем, как надёжно масштабировать вычисления на этапе вывода для открытых генеративных задач в условиях многоязычия и многозадачности.
Наши результаты показывают, что как стратегия выборки, основанная на вариации температуры, так и стратегия выбора должны быть адаптированы с учётом разнообразия областей и языковых особенностей. Мы оцениваем существующие методы выбора, выявляя, что стратегии, эффективные для английского языка, часто не обобщаются на другие языки. Мы предлагаем новые стратегии выборки и выбора, специально адаптированные для многоязычных и многозадачных сценариев вывода, и демонстрируем, что они обеспечивают значительный прирост производительности для различных языков и задач. В частности, наши комбинированные методы выборки и выбора приводят к среднему увеличению показателя win-rate на +6.8 для наших моделей объёмом 8B на промптах m-ArenaHard-v2.0 по сравнению с проприетарными моделями, такими как Gemini. На более крупных масштабах модель Command-A (111B), оснащённая нашими методами, показывает улучшение win-rate на +9.0 на том же бенчмарке при использовании всего пяти выборок по сравнению с декодированием одной выборки, что представляет собой существенное улучшение при минимальных затратах. Наши результаты подчёркивают необходимость подходов к вычислениям на этапе вывода, учитывающих языковые и задачнозависимые особенности, с целью демократизации улучшений производительности для недостаточно представленных языков.
English
Recent advancements in large language models (LLMs) have shifted focus toward
scaling inference-time compute, improving performance without retraining the
model. A common approach is to sample multiple outputs in parallel, and select
one of these as the final output. However, work to date has focused on English
and a handful of domains such as math and code. In contrast, we are most
interested in techniques that generalize across open-ended tasks, formally
verifiable tasks, and across languages. In this work, we study how to robustly
scale inference-time compute for open-ended generative tasks in a multilingual,
multi-task setting.
Our findings show that both sampling strategy based on temperature variation
and selection strategy must be adapted to account for diverse domains and
varied language settings. We evaluate existing selection methods, revealing
that strategies effective in English often fail to generalize across languages.
We propose novel sampling and selection strategies specifically adapted for
multilingual and multi-task inference scenarios, and show they yield notable
gains across languages and tasks. In particular, our combined sampling and
selection methods lead to an average +6.8 jump in win-rates for our 8B models
on m-ArenaHard-v2.0 prompts, against proprietary models such as Gemini. At
larger scale, Command-A (111B model) equipped with our methods, shows +9.0
improvement in win-rates on the same benchmark with just five samples against
single-sample decoding, a substantial increase at minimal cost. Our results
underscore the need for language- and task-aware approaches to inference-time
compute, aiming to democratize performance improvements in underrepresented
languages.