ChatPaper.aiChatPaper

Position d'incertitude : Une étude interlinguistique des biais positionnels dans les grands modèles de langage

Position of Uncertainty: A Cross-Linguistic Study of Positional Bias in Large Language Models

May 22, 2025
Auteurs: Menschikov Mikhail, Alexander Kharitonov, Maiia Kotyga, Vadim Porvatov, Anna Zhukovskaya, David Kagramanyan, Egor Shvetsov, Evgeny Burnaev
cs.AI

Résumé

Les grands modèles de langage présentent un biais positionnel -- une négligence systématique de l'information à des positions spécifiques dans le contexte --, mais son interaction avec la diversité linguistique reste mal comprise. Nous présentons une étude interlinguistique portant sur cinq langues typologiquement distinctes (anglais, russe, allemand, hindi, vietnamien), examinant comment le biais positionnel interagit avec l'incertitude du modèle, la syntaxe et l'incitation (prompting). Principaux résultats : (1) Le biais positionnel est piloté par le modèle, avec des variations spécifiques à la langue -- Qwen2.5-7B favorise les positions tardives, remettant en question l'hypothèse d'un biais en faveur des premiers tokens ; (2) Un guidage positionnel explicite (par exemple, "le contexte correct est à la position X") réduit la précision dans toutes les langues, sapant les pratiques d'ingénierie des prompts ; (3) L'alignement du contexte avec le biais positionnel augmente l'entropie, mais une entropie minimale ne prédit pas la précision. (4) Nous découvrons en outre que les LLM imposent différemment l'ordre dominant des mots dans les langues à ordre libre comme le hindi.
English
Large language models exhibit positional bias -- systematic neglect of information at specific context positions -- yet its interplay with linguistic diversity remains poorly understood. We present a cross-linguistic study across five typologically distinct languages (English, Russian, German, Hindi, Vietnamese), examining how positional bias interacts with model uncertainty, syntax, and prompting. Key findings: (1) Positional bias is model-driven, with language-specific variations -- Qwen2.5-7B favors late positions, challenging assumptions of early-token bias; (2) Explicit positional guidance (e.g., correct context is at position X) reduces accuracy across languages, undermining prompt-engineering practices; (3) Aligning context with positional bias increases entropy, yet minimal entropy does not predict accuracy. (4) We further uncover that LLMs differently impose dominant word order in free-word-order languages like Hindi.

Summary

AI-Generated Summary

PDF162May 26, 2025