ChatPaper.aiChatPaper

Sprachspezifisches Wissen: Wissen Modelle in X mehr als in Englisch?

Language Specific Knowledge: Do Models Know Better in X than in English?

May 21, 2025
Autoren: Ishika Agarwal, Nimet Beyza Bozdag, Dilek Hakkani-Tür
cs.AI

Zusammenfassung

Code-Switching ist ein häufiges Phänomen, bei dem zwischen verschiedenen Sprachen innerhalb derselben Äußerung, Gedanken oder Konversation gewechselt wird. Wir stellen die These auf, dass Menschen Code-Switching betreiben, weil sie sich bei bestimmten Themen und Domänen in einer Sprache wohler fühlen als in einer anderen. Mit dem Aufkommen von wissensintensiven Sprachmodellen stellen wir uns die naheliegende Frage: Könnten Modelle in manchen Sprachen mehr Wissen zu bestimmten Themen besitzen? Noch wichtiger: Könnten wir das logische Denken verbessern, indem wir die Sprache ändern, in der das Denken stattfindet? Wir prägen den Begriff Language Specific Knowledge (LSK), um dieses Phänomen zu beschreiben. Da ethnische Kulturen oft parallel zu verschiedenen Sprachen entstehen, verwenden wir kulturspezifische Datensätze (die Wissen über kulturelle und soziale Verhaltensnormen enthalten). Wir stellen fest, dass Sprachmodelle bei der Chain-of-Thought-Reasoning in manchen Sprachen besser abschneiden können als in Englisch, manchmal sogar in ressourcenarmen Sprachen. In Verbindung mit früheren Arbeiten, die zeigen, dass semantische Ähnlichkeit nicht mit repräsentativer Ähnlichkeit gleichzusetzen ist, vermuten wir, dass kulturspezifische Texte in den entsprechenden Sprachen häufiger vorkommen, wodurch spezifisches Wissen nur in bestimmten „Experten“-Sprachen vorhanden ist. Motiviert durch unsere ersten Ergebnisse entwickeln wir eine einfache Methodik namens LSKExtractor, um das sprachspezifische Wissen in einem Sprachmodell zu bewerten und es während der Inferenz zu nutzen. Wir präsentieren unsere Ergebnisse anhand verschiedener Modelle und Datensätze und zeigen eine durchschnittliche relative Verbesserung der Genauigkeit um 10 %. Unsere Forschung trägt zur Open-Source-Entwicklung von Sprachmodellen bei, die inklusiver und besser an die kulturellen und linguistischen Kontexte angepasst sind, in denen sie eingesetzt werden.
English
Code-switching is a common phenomenon of alternating between different languages in the same utterance, thought, or conversation. We posit that humans code-switch because they feel more comfortable talking about certain topics and domains in one language than another. With the rise of knowledge-intensive language models, we ask ourselves the next, natural question: Could models hold more knowledge on some topics in some language X? More importantly, could we improve reasoning by changing the language that reasoning is performed in? We coin the term Language Specific Knowledge (LSK) to represent this phenomenon. As ethnic cultures tend to develop alongside different languages, we employ culture-specific datasets (that contain knowledge about cultural and social behavioral norms). We find that language models can perform better when using chain-of-thought reasoning in some languages other than English, sometimes even better in low-resource languages. Paired with previous works showing that semantic similarity does not equate to representational similarity, we hypothesize that culturally specific texts occur more abundantly in corresponding languages, enabling specific knowledge to occur only in specific "expert" languages. Motivated by our initial results, we design a simple methodology called LSKExtractor to benchmark the language-specific knowledge present in a language model and, then, exploit it during inference. We show our results on various models and datasets, showing an average relative improvement of 10% in accuracy. Our research contributes to the open-source development of language models that are inclusive and more aligned with the cultural and linguistic contexts in which they are deployed.

Summary

AI-Generated Summary

PDF02May 22, 2025