ChatPaper.aiChatPaper

Sulla Robustezza e Affidabilità della Valutazione dei Modelli Linguistici Basata su Benchmark

On Robustness and Reliability of Benchmark-Based Evaluation of LLMs

September 4, 2025
Autori: Riccardo Lunardi, Vincenzo Della Mea, Stefano Mizzaro, Kevin Roitero
cs.AI

Abstract

L'efficacia dei Large Language Models (LLM) viene solitamente valutata mediante benchmark come MMLU, ARC-C o HellaSwag, dove le domande sono presentate nella loro formulazione originale, quindi in un formato fisso e standardizzato. Tuttavia, le applicazioni nel mondo reale implicano variabilità linguistica, richiedendo ai modelli di mantenere la loro efficacia attraverso diverse riformulazioni della stessa domanda o query. In questo studio, valutiamo sistematicamente la robustezza dei LLM rispetto a domande benchmark parafrasate e indaghiamo se le valutazioni basate su benchmark forniscono una misura affidabile delle capacità del modello. Generiamo sistematicamente varie parafrasi di tutte le domande in sei diversi benchmark comuni e misuriamo le variazioni risultanti nell'efficacia di 34 LLM all'avanguardia, di dimensioni ed efficacia diverse. I nostri risultati rivelano che, sebbene le classificazioni dei LLM rimangano relativamente stabili rispetto agli input parafrasati, i punteggi assoluti di efficacia cambiano e diminuiscono significativamente. Ciò suggerisce che i LLM faticano a gestire la variabilità linguistica, sollevando preoccupazioni sulle loro capacità di generalizzazione e sulle metodologie di valutazione. Inoltre, il calo di prestazioni osservato mette in discussione l'affidabilità delle valutazioni basate su benchmark, indicando che punteggi elevati nei benchmark potrebbero non catturare pienamente la robustezza di un modello rispetto alle variazioni degli input nel mondo reale. Discutiamo le implicazioni di questi risultati per le metodologie di valutazione dei LLM, sottolineando la necessità di benchmark consapevoli della robustezza che riflettano meglio gli scenari di implementazione pratica.
English
Large Language Models (LLMs) effectiveness is usually evaluated by means of benchmarks such as MMLU, ARC-C, or HellaSwag, where questions are presented in their original wording, thus in a fixed, standardized format. However, real-world applications involve linguistic variability, requiring models to maintain their effectiveness across diverse rewordings of the same question or query. In this study, we systematically assess the robustness of LLMs to paraphrased benchmark questions and investigate whether benchmark-based evaluations provide a reliable measure of model capabilities. We systematically generate various paraphrases of all the questions across six different common benchmarks, and measure the resulting variations in effectiveness of 34 state-of-the-art LLMs, of different size and effectiveness. Our findings reveal that while LLM rankings remain relatively stable across paraphrased inputs, absolute effectiveness scores change, and decline significantly. This suggests that LLMs struggle with linguistic variability, raising concerns about their generalization abilities and evaluation methodologies. Furthermore, the observed performance drop challenges the reliability of benchmark-based evaluations, indicating that high benchmark scores may not fully capture a model's robustness to real-world input variations. We discuss the implications of these findings for LLM evaluation methodologies, emphasizing the need for robustness-aware benchmarks that better reflect practical deployment scenarios.
PDF42September 8, 2025