Als het leven je samples geeft: De voordelen van het opschalen van inferentie-rekenkracht voor meertalige LLM's
When Life Gives You Samples: The Benefits of Scaling up Inference Compute for Multilingual LLMs
June 25, 2025
Auteurs: Ammar Khairi, Daniel D'souza, Ye Shen, Julia Kreutzer, Sara Hooker
cs.AI
Samenvatting
Recente vooruitgang in grote taalmodellen (LLMs) heeft de aandacht verlegd naar het opschalen van rekentijd tijdens inferentie, waarbij de prestaties worden verbeterd zonder het model opnieuw te trainen. Een veelgebruikte aanpak is het parallel bemonsteren van meerdere uitvoeren en het selecteren van één daarvan als de definitieve uitvoer. Tot nu toe heeft het onderzoek zich echter vooral gericht op Engels en een handvol domeinen zoals wiskunde en code. Daarentegen zijn wij vooral geïnteresseerd in technieken die generaliseren over open-eindige taken, formeel verifieerbare taken en verschillende talen. In dit werk bestuderen we hoe we de rekentijd tijdens inferentie robuust kunnen opschalen voor open-eindige generatieve taken in een meertalige, multi-task omgeving.
Onze bevindingen tonen aan dat zowel de bemonsteringsstrategie op basis van temperatuurvariatie als de selectiestrategie moeten worden aangepast om rekening te houden met diverse domeinen en verschillende taalinstellingen. We evalueren bestaande selectiemethoden en laten zien dat strategieën die effectief zijn in het Engels vaak niet generaliseren over verschillende talen. We stellen nieuwe bemonsterings- en selectiestrategieën voor die specifiek zijn aangepast voor meertalige en multi-task inferentiescenario's, en tonen aan dat ze aanzienlijke verbeteringen opleveren over verschillende talen en taken. In het bijzonder leiden onze gecombineerde bemonsterings- en selectiemethoden tot een gemiddelde stijging van +6,8 in win-rates voor onze 8B-modellen op m-ArenaHard-v2.0 prompts, vergeleken met propriëtaire modellen zoals Gemini. Op grotere schaal laat Command-A (111B-model), uitgerust met onze methoden, een verbetering van +9,0 zien in win-rates op dezelfde benchmark met slechts vijf bemonsteringen tegenover single-sample decoding, een aanzienlijke toename tegen minimale kosten. Onze resultaten benadrukken de noodzaak van taal- en taakbewuste benaderingen voor rekentijd tijdens inferentie, met als doel prestatieverbeteringen te democratiseren in ondervertegenwoordigde talen.
English
Recent advancements in large language models (LLMs) have shifted focus toward
scaling inference-time compute, improving performance without retraining the
model. A common approach is to sample multiple outputs in parallel, and select
one of these as the final output. However, work to date has focused on English
and a handful of domains such as math and code. In contrast, we are most
interested in techniques that generalize across open-ended tasks, formally
verifiable tasks, and across languages. In this work, we study how to robustly
scale inference-time compute for open-ended generative tasks in a multilingual,
multi-task setting.
Our findings show that both sampling strategy based on temperature variation
and selection strategy must be adapted to account for diverse domains and
varied language settings. We evaluate existing selection methods, revealing
that strategies effective in English often fail to generalize across languages.
We propose novel sampling and selection strategies specifically adapted for
multilingual and multi-task inference scenarios, and show they yield notable
gains across languages and tasks. In particular, our combined sampling and
selection methods lead to an average +6.8 jump in win-rates for our 8B models
on m-ArenaHard-v2.0 prompts, against proprietary models such as Gemini. At
larger scale, Command-A (111B model) equipped with our methods, shows +9.0
improvement in win-rates on the same benchmark with just five samples against
single-sample decoding, a substantial increase at minimal cost. Our results
underscore the need for language- and task-aware approaches to inference-time
compute, aiming to democratize performance improvements in underrepresented
languages.