ChatPaper.aiChatPaper

Специфические знания о языке: Модели лучше справляются с X, чем с английским?

Language Specific Knowledge: Do Models Know Better in X than in English?

May 21, 2025
Авторы: Ishika Agarwal, Nimet Beyza Bozdag, Dilek Hakkani-Tür
cs.AI

Аннотация

Кодовое переключение — это распространённое явление, при котором в одном высказывании, мысли или разговоре происходит чередование между разными языками. Мы предполагаем, что люди переключаются между языками, потому что чувствуют себя более комфортно, обсуждая определённые темы и области на одном языке, чем на другом. С ростом популярности языковых моделей, ориентированных на знания, мы задаёмся следующим естественным вопросом: могут ли модели обладать большими знаниями по некоторым темам на определённом языке X? И что более важно, можем ли мы улучшить рассуждения, изменив язык, на котором они выполняются? Мы вводим термин «Языково-специфические знания» (Language Specific Knowledge, LSK) для описания этого явления. Поскольку этнические культуры часто развиваются параллельно с разными языками, мы используем культурно-специфические наборы данных (которые содержат знания о культурных и социальных нормах поведения). Мы обнаруживаем, что языковые модели могут работать лучше, используя цепочку рассуждений (chain-of-thought) на некоторых языках, отличных от английского, иногда даже на языках с ограниченными ресурсами. В сочетании с предыдущими работами, показывающими, что семантическое сходство не эквивалентно сходству представлений, мы выдвигаем гипотезу, что культурно-специфические тексты чаще встречаются на соответствующих языках, что позволяет специфическим знаниям существовать только в определённых «экспертных» языках. Вдохновлённые нашими первоначальными результатами, мы разрабатываем простую методологию под названием LSKExtractor для оценки языково-специфических знаний, присутствующих в языковой модели, и их использования в процессе вывода. Мы демонстрируем наши результаты на различных моделях и наборах данных, показывая среднее относительное улучшение точности на 10%. Наше исследование способствует открытой разработке языковых моделей, которые являются более инклюзивными и лучше соответствуют культурным и лингвистическим контекстам, в которых они применяются.
English
Code-switching is a common phenomenon of alternating between different languages in the same utterance, thought, or conversation. We posit that humans code-switch because they feel more comfortable talking about certain topics and domains in one language than another. With the rise of knowledge-intensive language models, we ask ourselves the next, natural question: Could models hold more knowledge on some topics in some language X? More importantly, could we improve reasoning by changing the language that reasoning is performed in? We coin the term Language Specific Knowledge (LSK) to represent this phenomenon. As ethnic cultures tend to develop alongside different languages, we employ culture-specific datasets (that contain knowledge about cultural and social behavioral norms). We find that language models can perform better when using chain-of-thought reasoning in some languages other than English, sometimes even better in low-resource languages. Paired with previous works showing that semantic similarity does not equate to representational similarity, we hypothesize that culturally specific texts occur more abundantly in corresponding languages, enabling specific knowledge to occur only in specific "expert" languages. Motivated by our initial results, we design a simple methodology called LSKExtractor to benchmark the language-specific knowledge present in a language model and, then, exploit it during inference. We show our results on various models and datasets, showing an average relative improvement of 10% in accuracy. Our research contributes to the open-source development of language models that are inclusive and more aligned with the cultural and linguistic contexts in which they are deployed.

Summary

AI-Generated Summary

PDF02May 22, 2025