ChatPaper.aiChatPaper

Miglioramento della Classificazione del Sentimento e del Rilevamento dell'Ironia nei Grandi Modelli Linguistici attraverso Tecniche Avanzate di Prompt Engineering

Enhancing Sentiment Classification and Irony Detection in Large Language Models through Advanced Prompt Engineering Techniques

January 13, 2026
Autori: Marvin Schmitt, Anne Schwerk, Sebastian Lempert
cs.AI

Abstract

Questo studio indaga l'utilizzo dell'ingegneria dei prompt per potenziare i grandi modelli linguistici (LLM), in particolare GPT-4o-mini e gemini-1.5-flash, in compiti di analisi del sentimento. Valuta tecniche avanzate di prompting come l'apprendimento con pochi esempi (few-shot learning), il prompting a catena di pensiero (chain-of-thought) e l'auto-consistenza, confrontandole con un approccio baseline. I compiti chiave includono la classificazione del sentimento, l'analisi del sentimento basata su aspetti e il rilevamento di sfumature sottili come l'ironia. La ricerca descrive nel dettaglio i fondamenti teorici, i dataset e i metodi utilizzati, valutando le prestazioni degli LLM attraverso accuratezza, richiamo, precisione e punteggio F1. I risultati rivelano che il prompting avanzato migliora significativamente l'analisi del sentimento: l'approccio few-shot eccelle in GPT-4o-mini, mentre il prompting a catena di pensiero potenzia il rilevamento dell'ironia in gemini-1.5-flash fino al 46%. Pertanto, sebbene le tecniche di prompting avanzato migliorino complessivamente le prestazioni, il fatto che il prompting con pochi esempi funzioni meglio per GPT-4o-mini e che il prompting a catena di pensiero eccella in gemini-1.5-flash per il rilevamento dell'ironia suggerisce che le strategie di prompting debbano essere calibrate sia sul modello che sul compito specifico. Ciò evidenzia l'importanza di allineare la progettazione dei prompt sia all'architettura dell'LLM che alla complessità semantica del compito.
English
This study investigates the use of prompt engineering to enhance large language models (LLMs), specifically GPT-4o-mini and gemini-1.5-flash, in sentiment analysis tasks. It evaluates advanced prompting techniques like few-shot learning, chain-of-thought prompting, and self-consistency against a baseline. Key tasks include sentiment classification, aspect-based sentiment analysis, and detecting subtle nuances such as irony. The research details the theoretical background, datasets, and methods used, assessing performance of LLMs as measured by accuracy, recall, precision, and F1 score. Findings reveal that advanced prompting significantly improves sentiment analysis, with the few-shot approach excelling in GPT-4o-mini and chain-of-thought prompting boosting irony detection in gemini-1.5-flash by up to 46%. Thus, while advanced prompting techniques overall improve performance, the fact that few-shot prompting works best for GPT-4o-mini and chain-of-thought excels in gemini-1.5-flash for irony detection suggests that prompting strategies must be tailored to both the model and the task. This highlights the importance of aligning prompt design with both the LLM's architecture and the semantic complexity of the task.
PDF52February 8, 2026