ChatPaper.aiChatPaper

Quantifizierung der Generalisierungskomplexität für große Sprachmodelle

Quantifying Generalization Complexity for Large Language Models

October 2, 2024
Autoren: Zhenting Qi, Hongyin Luo, Xuliang Huang, Zhuokai Zhao, Yibo Jiang, Xiangjun Fan, Himabindu Lakkaraju, James Glass
cs.AI

Zusammenfassung

Obwohl große Sprachmodelle (LLMs) außergewöhnliche Fähigkeiten bei der Verarbeitung komplexer Anfragen und der Durchführung anspruchsvoller Aufgaben gezeigt haben, sind ihre Verallgemeinerungsfähigkeiten oft eng mit dem Memorieren verflochten, was eine präzisere Bewertung erforderlich macht. Um diese Herausforderung anzugehen, stellen wir Scylla vor, ein dynamisches Bewertungsframework, das die Verallgemeinerungsfähigkeiten von LLMs quantitativ misst. Scylla entwirrt Verallgemeinerung von Memorierung, indem es die Leistung des Modells sowohl auf In-Distributions- (ID) als auch auf Out-of-Distributionsdaten (OOD) durch 20 Aufgaben über 5 Komplexitätsstufen hinweg bewertet. Durch umfangreiche Experimente decken wir eine nicht-monotone Beziehung zwischen Aufgabenkomplexität und der Leistungsdifferenz zwischen ID- und OOD-Daten auf, die wir als das Verallgemeinerungstal bezeichnen. Insbesondere zeigt dieses Phänomen eine kritische Schwelle - als kritische Komplexität bezeichnet - an, an der die Abhängigkeit von nicht verallgemeinerbaren Verhaltensweisen ihren Höhepunkt erreicht und die obere Grenze der Verallgemeinerungsfähigkeiten von LLMs anzeigt. Mit zunehmender Modellgröße verschiebt sich die kritische Komplexität in Richtung höherer Aufgabenkomplexität, was darauf hindeutet, dass größere Modelle komplexere Denkaufgaben bewältigen können, bevor sie übermäßig auf das Memorieren angewiesen sind. Durch die Nutzung von Scylla und des Konzepts der kritischen Komplexität bewerten wir 28 LLMs, darunter sowohl Open-Source-Modelle wie LLaMA und Qwen-Familien als auch Closed-Source-Modelle wie Claude und GPT, um eine robustere Bewertung zu ermöglichen und ein klareres Verständnis der Verallgemeinerungsfähigkeiten von LLMs zu etablieren.
English
While large language models (LLMs) have shown exceptional capabilities in understanding complex queries and performing sophisticated tasks, their generalization abilities are often deeply entangled with memorization, necessitating more precise evaluation. To address this challenge, we introduce Scylla, a dynamic evaluation framework that quantitatively measures the generalization abilities of LLMs. Scylla disentangles generalization from memorization via assessing model performance on both in-distribution (ID) and out-of-distribution (OOD) data through 20 tasks across 5 levels of complexity. Through extensive experiments, we uncover a non-monotonic relationship between task complexity and the performance gap between ID and OOD data, which we term the generalization valley. Specifically, this phenomenon reveals a critical threshold - referred to as critical complexity - where reliance on non-generalizable behavior peaks, indicating the upper bound of LLMs' generalization capabilities. As model size increases, the critical complexity shifts toward higher levels of task complexity, suggesting that larger models can handle more complex reasoning tasks before over-relying on memorization. Leveraging Scylla and the concept of critical complexity, we benchmark 28LLMs including both open-sourced models such as LLaMA and Qwen families, and close-sourced models like Claude and GPT, providing a more robust evaluation and establishing a clearer understanding of LLMs' generalization capabilities.

Summary

AI-Generated Summary

PDF142November 16, 2024