ChatPaper.aiChatPaper

Geopolitische Vorurteile in LLMs: Welche sind die „guten“ und die „schlechten“ Länder laut zeitgenössischen Sprachmodellen?

Geopolitical biases in LLMs: what are the "good" and the "bad" countries according to contemporary language models

June 7, 2025
Autoren: Mikhail Salnikov, Dmitrii Korzh, Ivan Lazichny, Elvir Karimov, Artyom Iudin, Ivan Oseledets, Oleg Y. Rogov, Alexander Panchenko, Natalia Loukachevitch, Elena Tutubalina
cs.AI

Zusammenfassung

Diese Arbeit untersucht geopolitische Verzerrungen in großen Sprachmodellen (LLMs) in Bezug auf verschiedene Länder durch eine Analyse ihrer Interpretation historischer Ereignisse mit widersprüchlichen nationalen Perspektiven (USA, Großbritannien, UdSSR und China). Wir stellen einen neuartigen Datensatz mit neutralen Ereignisbeschreibungen und kontrastierenden Standpunkten aus verschiedenen Ländern vor. Unsere Ergebnisse zeigen signifikante geopolitische Verzerrungen, wobei die Modelle bestimmte nationale Narrative bevorzugen. Einfache Entzerrungs-Prompts hatten nur begrenzte Wirkung bei der Reduzierung dieser Verzerrungen. Experimente mit manipulierten Teilnehmerlabels offenbaren die Sensitivität der Modelle gegenüber Zuschreibungen, wobei Verzerrungen manchmal verstärkt oder Inkonsistenzen erkannt werden, insbesondere bei vertauschten Labels. Diese Arbeit beleuchtet nationale narrative Verzerrungen in LLMs, hinterfragt die Wirksamkeit einfacher Entzerrungsmethoden und bietet einen Rahmen sowie einen Datensatz für zukünftige Forschung zu geopolitischen Verzerrungen.
English
This paper evaluates geopolitical biases in LLMs with respect to various countries though an analysis of their interpretation of historical events with conflicting national perspectives (USA, UK, USSR, and China). We introduce a novel dataset with neutral event descriptions and contrasting viewpoints from different countries. Our findings show significant geopolitical biases, with models favoring specific national narratives. Additionally, simple debiasing prompts had a limited effect in reducing these biases. Experiments with manipulated participant labels reveal models' sensitivity to attribution, sometimes amplifying biases or recognizing inconsistencies, especially with swapped labels. This work highlights national narrative biases in LLMs, challenges the effectiveness of simple debiasing methods, and offers a framework and dataset for future geopolitical bias research.
PDF622June 11, 2025