좋은 점, 나쁜 점, 탐욕스러운 점: LLM 평가는 비결정론을 무시해서는 안 된다
The Good, The Bad, and The Greedy: Evaluation of LLMs Should Not Ignore Non-Determinism
July 15, 2024
저자: Yifan Song, Guoyin Wang, Sujian Li, Bill Yuchen Lin
cs.AI
초록
현재 대규모 언어 모델(LLM) 평가는 비결정론적 요소를 간과하는 경우가 많으며, 일반적으로 각 예제에 대해 단일 출력에 초점을 맞춥니다. 이는 실제 응용 프로그램에서의 LLM 성능 변동성을 이해하는 데 한계를 초래합니다. 본 연구는 이러한 문제를 해결하기 위해 탐욕적 디코딩과 샘플링 간의 성능 차이에 대한 핵심 질문을 탐구하고, 비결정론적 요소에 대한 벤치마크의 일관성을 확인하며, 고유한 모델 동작을 조사합니다. 광범위한 실험을 통해 우리는 대부분의 평가된 작업에서 탐욕적 디코딩이 일반적으로 샘플링 방법보다 우수한 성능을 보인다는 것을 관찰했습니다. 또한, 다양한 LLM 크기와 정렬 방법에 걸쳐 일관된 성능을 관찰했으며, 정렬이 샘플링 분산을 줄일 수 있다는 점을 확인했습니다. 더 나아가, 우리의 best-of-N 샘플링 접근법은 더 작은 LLM이 GPT-4-Turbo와 같은 더 큰 모델을 능가하거나 동등한 성능을 낼 수 있음을 보여주며, 작은 LLM의 잠재력을 강조합니다. 이 연구는 LLM 평가에서 비결정론적 요소를 고려하는 것의 중요성을 보여주고, 향후 LLM 개발 및 평가를 위한 통찰을 제공합니다.
English
Current evaluations of large language models (LLMs) often overlook
non-determinism, typically focusing on a single output per example. This limits
our understanding of LLM performance variability in real-world applications.
Our study addresses this issue by exploring key questions about the performance
differences between greedy decoding and sampling, identifying benchmarks'
consistency regarding non-determinism, and examining unique model behaviors.
Through extensive experiments, we observe that greedy decoding generally
outperforms sampling methods for most evaluated tasks. We also observe
consistent performance across different LLM sizes and alignment methods, noting
that alignment can reduce sampling variance. Moreover, our best-of-N sampling
approach demonstrates that smaller LLMs can match or surpass larger models such
as GPT-4-Turbo, highlighting the untapped potential of smaller LLMs. This
research shows the importance of considering non-determinism in LLM evaluations
and provides insights for future LLM development and evaluation.Summary
AI-Generated Summary