ChatPaper.aiChatPaper

Amélioration de la classification des sentiments et de la détection de l'ironie dans les grands modèles de langage grâce à des techniques avancées d'ingénierie des prompts

Enhancing Sentiment Classification and Irony Detection in Large Language Models through Advanced Prompt Engineering Techniques

January 13, 2026
papers.authors: Marvin Schmitt, Anne Schwerk, Sebastian Lempert
cs.AI

papers.abstract

Cette étude examine l'utilisation de l'ingénierie des prompts pour améliorer les grands modèles de langage (LLM), spécifiquement GPT-4o-mini et gemini-1.5-flash, dans des tâches d'analyse de sentiment. Elle évalue des techniques de prompting avancées comme l'apprentissage par quelques exemples (few-shot learning), le prompting en chaîne de pensée (chain-of-thought) et l'auto-cohérence (self-consistency) par rapport à une baseline. Les tâches principales incluent la classification des sentiments, l'analyse de sentiment axée sur les aspects et la détection de nuances subtiles telles que l'ironie. La recherche détaille le contexte théorique, les jeux de données et les méthodes utilisées, en évaluant la performance des LLM mesurée par l'exactitude, le rappel, la précision et le score F1. Les résultats révèlent que le prompting avancé améliore significativement l'analyse de sentiment, l'approche par quelques exemples excellant avec GPT-4o-mini et le prompting en chaîne de pensée améliorant la détection de l'ironie avec gemini-1.5-flash jusqu'à 46 %. Ainsi, bien que les techniques de prompting avancées améliorent globalement les performances, le fait que le prompting par quelques exemples fonctionne le mieux pour GPT-4o-mini et que le chaîne de pensée excelle avec gemini-1.5-flash pour la détection de l'ironie suggère que les stratégies de prompting doivent être adaptées à la fois au modèle et à la tâche. Cela souligne l'importance d'aligner la conception des prompts à la fois sur l'architecture du LLM et sur la complexité sémantique de la tâche.
English
This study investigates the use of prompt engineering to enhance large language models (LLMs), specifically GPT-4o-mini and gemini-1.5-flash, in sentiment analysis tasks. It evaluates advanced prompting techniques like few-shot learning, chain-of-thought prompting, and self-consistency against a baseline. Key tasks include sentiment classification, aspect-based sentiment analysis, and detecting subtle nuances such as irony. The research details the theoretical background, datasets, and methods used, assessing performance of LLMs as measured by accuracy, recall, precision, and F1 score. Findings reveal that advanced prompting significantly improves sentiment analysis, with the few-shot approach excelling in GPT-4o-mini and chain-of-thought prompting boosting irony detection in gemini-1.5-flash by up to 46%. Thus, while advanced prompting techniques overall improve performance, the fact that few-shot prompting works best for GPT-4o-mini and chain-of-thought excels in gemini-1.5-flash for irony detection suggests that prompting strategies must be tailored to both the model and the task. This highlights the importance of aligning prompt design with both the LLM's architecture and the semantic complexity of the task.
PDF11January 17, 2026