ChatPaper.aiChatPaper

大規模言語モデルにおける認識的多様性と知識崩壊

Epistemic Diversity and Knowledge Collapse in Large Language Models

October 5, 2025
著者: Dustin Wright, Sarah Masud, Jared Moore, Srishti Yadav, Maria Antoniak, Chan Young Park, Isabelle Augenstein
cs.AI

要旨

大規模言語モデル(LLM)は、語彙的、意味的、および文体的に均質なテキストを生成する傾向がある。これにより、均質化したLLMが時間の経過とともにアクセス可能な情報の範囲を縮小させる「知識の崩壊」のリスクが生じる。既存の均質化に関する研究は、閉じた形式の多肢選択問題や曖昧な意味的特徴に焦点を当てたものであり、時間や文化的文脈にわたるトレンドを検討していない。これを克服するため、我々は認識論的多様性、すなわちLLMの出力における現実世界の主張の変異を測定する新しい方法論を提案し、LLMの知識崩壊に関する広範な実証研究を行う。27のLLM、12か国をカバーする155のトピック、および実際のユーザーチャットから収集した200のプロンプト変種をテストした。研究対象のトピックにおいて、新しいモデルはより多様な主張を生成する傾向があるものの、ほぼ全てのモデルが基本的なウェブ検索よりも認識論的多様性が低いことを示した。モデルのサイズは認識論的多様性に負の影響を与える一方、検索拡張生成(RAG)は正の影響を与えるが、RAGによる改善は文化的文脈によって異なることがわかった。最後に、伝統的な知識源(Wikipedia)と比較すると、国固有の主張は現地語よりも英語を反映していることが明らかとなり、認識論的表現におけるギャップが浮き彫りになった。
English
Large language models (LLMs) tend to generate lexically, semantically, and stylistically homogenous texts. This poses a risk of knowledge collapse, where homogenous LLMs mediate a shrinking in the range of accessible information over time. Existing works on homogenization are limited by a focus on closed-ended multiple-choice setups or fuzzy semantic features, and do not look at trends across time and cultural contexts. To overcome this, we present a new methodology to measure epistemic diversity, i.e., variation in real-world claims in LLM outputs, which we use to perform a broad empirical study of LLM knowledge collapse. We test 27 LLMs, 155 topics covering 12 countries, and 200 prompt variations sourced from real user chats. For the topics in our study, we show that while newer models tend to generate more diverse claims, nearly all models are less epistemically diverse than a basic web search. We find that model size has a negative impact on epistemic diversity, while retrieval-augmented generation (RAG) has a positive impact, though the improvement from RAG varies by the cultural context. Finally, compared to a traditional knowledge source (Wikipedia), we find that country-specific claims reflect the English language more than the local one, highlighting a gap in epistemic representation
PDF12October 7, 2025