ChatPaper.aiChatPaper

Het analyseren van de kennisgrenscognitie van LLM's over verschillende talen door de lens van interne representaties

Analyzing LLMs' Knowledge Boundary Cognition Across Languages Through the Lens of Internal Representations

April 18, 2025
Auteurs: Chenghao Xiao, Hou Pong Chan, Hao Zhang, Mahani Aljunied, Lidong Bing, Noura Al Moubayed, Yu Rong
cs.AI

Samenvatting

Hoewel het begrijpen van de kennisgrenzen van LLM's cruciaal is om hallucinatie te voorkomen, heeft onderzoek naar de kennisgrenzen van LLM's zich voornamelijk gericht op het Engels. In dit werk presenteren we de eerste studie die analyseert hoe LLM's kennisgrenzen herkennen in verschillende talen door hun interne representaties te onderzoeken bij het verwerken van bekende en onbekende vragen in meerdere talen. Onze empirische studies onthullen drie belangrijke bevindingen: 1) De perceptie van kennisgrenzen door LLM's is gecodeerd in de middelste tot middel-bovenste lagen in verschillende talen. 2) Taalverschillen in de perceptie van kennisgrenzen volgen een lineaire structuur, wat ons motiveert om een trainingsvrije uitlijningsmethode voor te stellen die de perceptie van kennisgrenzen effectief overdraagt tussen talen, waardoor het risico op hallucinatie in talen met weinig bronnen wordt verminderd; 3) Fine-tuning op tweetalige vraagpaarvertaling verbetert verder de herkenning van kennisgrenzen door LLM's in verschillende talen. Gezien het ontbreken van standaard testomgevingen voor cross-linguale kennisgrenzenanalyse, construeren we een meertalige evaluatiesuite die bestaat uit drie representatieve typen kennisgrenzendata. Onze code en datasets zijn openbaar beschikbaar op https://github.com/DAMO-NLP-SG/LLM-Multilingual-Knowledge-Boundaries.
English
While understanding the knowledge boundaries of LLMs is crucial to prevent hallucination, research on knowledge boundaries of LLMs has predominantly focused on English. In this work, we present the first study to analyze how LLMs recognize knowledge boundaries across different languages by probing their internal representations when processing known and unknown questions in multiple languages. Our empirical studies reveal three key findings: 1) LLMs' perceptions of knowledge boundaries are encoded in the middle to middle-upper layers across different languages. 2) Language differences in knowledge boundary perception follow a linear structure, which motivates our proposal of a training-free alignment method that effectively transfers knowledge boundary perception ability across languages, thereby helping reduce hallucination risk in low-resource languages; 3) Fine-tuning on bilingual question pair translation further enhances LLMs' recognition of knowledge boundaries across languages. Given the absence of standard testbeds for cross-lingual knowledge boundary analysis, we construct a multilingual evaluation suite comprising three representative types of knowledge boundary data. Our code and datasets are publicly available at https://github.com/DAMO-NLP-SG/LLM-Multilingual-Knowledge-Boundaries.

Summary

AI-Generated Summary

PDF172April 21, 2025