ChatPaper.aiChatPaper

Das Gute, das Schlechte und das Gierige: Die Bewertung von LLMs sollte die Nichtdeterminiertheit nicht ignorieren.

The Good, The Bad, and The Greedy: Evaluation of LLMs Should Not Ignore Non-Determinism

July 15, 2024
Autoren: Yifan Song, Guoyin Wang, Sujian Li, Bill Yuchen Lin
cs.AI

Zusammenfassung

Aktuelle Bewertungen großer Sprachmodelle (LLMs) übersehen oft die Nichtdeterminiertheit und konzentrieren sich in der Regel auf eine einzige Ausgabe pro Beispiel. Dies begrenzt unser Verständnis der Leistungsvariabilität von LLMs in realen Anwendungen. Unsere Studie befasst sich mit diesem Problem, indem sie Schlüsselfragen zu den Leistungsunterschieden zwischen gierigem Decodieren und Sampling untersucht, die Konsistenz von Benchmarks hinsichtlich der Nichtdeterminiertheit identifiziert und einzigartige Verhaltensweisen von Modellen untersucht. Durch umfangreiche Experimente beobachten wir, dass gieriges Decodieren im Allgemeinen für die meisten bewerteten Aufgaben Sampling-Methoden übertrifft. Wir stellen auch eine konsistente Leistung über verschiedene LLM-Größen und Ausrichtungsmethoden fest und merken an, dass die Ausrichtung die Sampling-Varianz reduzieren kann. Darüber hinaus zeigt unser Best-of-N-Sampling-Ansatz, dass kleinere LLMs mit größeren Modellen wie GPT-4-Turbo mithalten oder diese übertreffen können, was das ungenutzte Potenzial kleinerer LLMs hervorhebt. Diese Forschung verdeutlicht die Bedeutung der Berücksichtigung von Nichtdeterminiertheit bei LLM-Bewertungen und bietet Einblicke für die zukünftige Entwicklung und Bewertung von LLMs.
English
Current evaluations of large language models (LLMs) often overlook non-determinism, typically focusing on a single output per example. This limits our understanding of LLM performance variability in real-world applications. Our study addresses this issue by exploring key questions about the performance differences between greedy decoding and sampling, identifying benchmarks' consistency regarding non-determinism, and examining unique model behaviors. Through extensive experiments, we observe that greedy decoding generally outperforms sampling methods for most evaluated tasks. We also observe consistent performance across different LLM sizes and alignment methods, noting that alignment can reduce sampling variance. Moreover, our best-of-N sampling approach demonstrates that smaller LLMs can match or surpass larger models such as GPT-4-Turbo, highlighting the untapped potential of smaller LLMs. This research shows the importance of considering non-determinism in LLM evaluations and provides insights for future LLM development and evaluation.

Summary

AI-Generated Summary

PDF254November 28, 2024