Анализ познания границ знаний крупных языковых моделей в различных языках через призму внутренних представлений
Analyzing LLMs' Knowledge Boundary Cognition Across Languages Through the Lens of Internal Representations
April 18, 2025
Авторы: Chenghao Xiao, Hou Pong Chan, Hao Zhang, Mahani Aljunied, Lidong Bing, Noura Al Moubayed, Yu Rong
cs.AI
Аннотация
Хотя понимание границ знаний крупных языковых моделей (LLM) имеет решающее значение для предотвращения галлюцинаций, исследования в этой области до сих пор в основном сосредоточены на английском языке. В данной работе мы представляем первое исследование, анализирующее, как LLM распознают границы знаний на разных языках, исследуя их внутренние представления при обработке известных и неизвестных вопросов на нескольких языках. Наши эмпирические исследования выявили три ключевых вывода: 1) Восприятие границ знаний LLM кодируется в средних и верхних средних слоях модели независимо от языка. 2) Различия в восприятии границ знаний между языками следуют линейной структуре, что мотивирует наше предложение метода выравнивания без обучения, который эффективно переносит способность восприятия границ знаний между языками, тем самым помогая снизить риск галлюцинаций в языках с ограниченными ресурсами. 3) Тонкая настройка на переводе пар вопросов с двух языков дополнительно улучшает распознавание границ знаний LLM на разных языках. Учитывая отсутствие стандартных тестовых наборов для анализа кросс-лингвистических границ знаний, мы создали многоязычный набор для оценки, включающий три репрезентативных типа данных о границах знаний. Наш код и наборы данных доступны по адресу: https://github.com/DAMO-NLP-SG/LLM-Multilingual-Knowledge-Boundaries.
English
While understanding the knowledge boundaries of LLMs is crucial to prevent
hallucination, research on knowledge boundaries of LLMs has predominantly
focused on English. In this work, we present the first study to analyze how
LLMs recognize knowledge boundaries across different languages by probing their
internal representations when processing known and unknown questions in
multiple languages. Our empirical studies reveal three key findings: 1) LLMs'
perceptions of knowledge boundaries are encoded in the middle to middle-upper
layers across different languages. 2) Language differences in knowledge
boundary perception follow a linear structure, which motivates our proposal of
a training-free alignment method that effectively transfers knowledge boundary
perception ability across languages, thereby helping reduce hallucination risk
in low-resource languages; 3) Fine-tuning on bilingual question pair
translation further enhances LLMs' recognition of knowledge boundaries across
languages. Given the absence of standard testbeds for cross-lingual knowledge
boundary analysis, we construct a multilingual evaluation suite comprising
three representative types of knowledge boundary data. Our code and datasets
are publicly available at
https://github.com/DAMO-NLP-SG/LLM-Multilingual-Knowledge-Boundaries.Summary
AI-Generated Summary