ChatPaper.aiChatPaper

Il Benchmark SIFo: Indagine sulla Capacità dei Modelli Linguistici di Grande Scala nel Seguire Istruzioni Sequenziali

The SIFo Benchmark: Investigating the Sequential Instruction Following Ability of Large Language Models

June 28, 2024
Autori: Xinyi Chen, Baohao Liao, Jirui Qi, Panagiotis Eustratiadis, Christof Monz, Arianna Bisazza, Maarten de Rijke
cs.AI

Abstract

Seguire più istruzioni è un'abilità cruciale per i grandi modelli linguistici (LLM). Valutare questa capacità presenta sfide significative: (i) coerenza limitata tra più istruzioni, (ii) bias posizionale in cui l'ordine delle istruzioni influisce sulle prestazioni del modello e (iii) mancanza di compiti oggettivamente verificabili. Per affrontare questi problemi, introduciamo un benchmark progettato per valutare le capacità dei modelli di seguire più istruzioni attraverso compiti di sequenziale istruzione seguente (SIFo). In SIFo, il completamento con successo di più istruzioni è verificabile esaminando solo l'istruzione finale. Il nostro benchmark valuta il seguire le istruzioni utilizzando quattro compiti (modifica del testo, risposta a domande, matematica e rispetto delle regole di sicurezza), ciascuno dei quali valuta diversi aspetti del seguire istruzioni sequenziali. La nostra valutazione di popolari LLM, sia closed-source che open-source, mostra che i modelli più recenti e di maggiori dimensioni superano significativamente le loro controparti più vecchie e più piccole nei compiti SIFo, convalidando l'efficacia del benchmark. Tutti i modelli faticano a seguire sequenze di istruzioni, suggerendo una mancanza importante di robustezza negli attuali modelli linguistici.
English
Following multiple instructions is a crucial ability for large language models (LLMs). Evaluating this ability comes with significant challenges: (i) limited coherence between multiple instructions, (ii) positional bias where the order of instructions affects model performance, and (iii) a lack of objectively verifiable tasks. To address these issues, we introduce a benchmark designed to evaluate models' abilities to follow multiple instructions through sequential instruction following (SIFo) tasks. In SIFo, the successful completion of multiple instructions is verifiable by examining only the final instruction. Our benchmark evaluates instruction following using four tasks (text modification, question answering, mathematics, and security rule following), each assessing different aspects of sequential instruction following. Our evaluation of popular LLMs, both closed-source and open-source, shows that more recent and larger models significantly outperform their older and smaller counterparts on the SIFo tasks, validating the benchmark's effectiveness. All models struggle with following sequences of instructions, hinting at an important lack of robustness of today's language models.
PDF61November 28, 2024