Les explications textuelles générées par des modèles de langage peuvent-elles améliorer les performances de classification des modèles ? Une étude empirique
Can LLM-Generated Textual Explanations Enhance Model Classification Performance? An Empirical Study
August 13, 2025
papers.authors: Mahdi Dhaini, Juraj Vladika, Ege Erdogan, Zineb Attaoui, Gjergji Kasneci
cs.AI
papers.abstract
Dans le domaine en pleine évolution du traitement du langage naturel explicable (NLP), les explications textuelles, c'est-à-dire les justifications de type humain, sont essentielles pour expliquer les prédictions des modèles et enrichir les ensembles de données avec des étiquettes interprétables. Les approches traditionnelles reposent sur l'annotation humaine, qui est coûteuse, laborieuse et freine la scalabilité. Dans ce travail, nous présentons un cadre automatisé qui exploite plusieurs modèles de langage de pointe (LLMs) pour générer des explications textuelles de haute qualité. Nous évaluons rigoureusement la qualité de ces explications générées par LLM à l'aide d'une suite complète de métriques de génération de langage naturel (NLG). De plus, nous étudions l'impact en aval de ces explications sur la performance des modèles de langage pré-entraînés (PLMs) et des LLMs dans des tâches d'inférence en langage naturel sur deux ensembles de données de référence diversifiés. Nos expériences démontrent que les explications automatisées présentent une efficacité très compétitive par rapport aux explications annotées par des humains pour améliorer la performance des modèles. Nos résultats mettent en lumière une voie prometteuse pour la génération automatisée et scalable d'explications textuelles basées sur des LLMs, visant à étendre les ensembles de données NLP et à améliorer la performance des modèles.
English
In the rapidly evolving field of Explainable Natural Language Processing
(NLP), textual explanations, i.e., human-like rationales, are pivotal for
explaining model predictions and enriching datasets with interpretable labels.
Traditional approaches rely on human annotation, which is costly,
labor-intensive, and impedes scalability. In this work, we present an automated
framework that leverages multiple state-of-the-art large language models (LLMs)
to generate high-quality textual explanations. We rigorously assess the quality
of these LLM-generated explanations using a comprehensive suite of Natural
Language Generation (NLG) metrics. Furthermore, we investigate the downstream
impact of these explanations on the performance of pre-trained language models
(PLMs) and LLMs across natural language inference tasks on two diverse
benchmark datasets. Our experiments demonstrate that automated explanations
exhibit highly competitive effectiveness compared to human-annotated
explanations in improving model performance. Our findings underscore a
promising avenue for scalable, automated LLM-based textual explanation
generation for extending NLP datasets and enhancing model performance.