Verbesserung der Sentimentklassifizierung und Ironieerkennung in großen Sprachmodellen durch fortschrittliche Prompt-Engineering-Techniken
Enhancing Sentiment Classification and Irony Detection in Large Language Models through Advanced Prompt Engineering Techniques
January 13, 2026
papers.authors: Marvin Schmitt, Anne Schwerk, Sebastian Lempert
cs.AI
papers.abstract
Diese Studie untersucht den Einsatz von Prompt-Engineering zur Verbesserung von Large Language Models (LLMs), insbesondere GPT-4o-mini und Gemini-1.5-Flash, bei Sentiment-Analyse-Aufgaben. Es werden fortgeschrittene Prompting-Techniken wie Few-Shot-Learning, Chain-of-Thought-Prompting und Self-Consistency gegen eine Baseline evaluiert. Zu den Hauptaufgaben gehören die Sentiment-Klassifikation, die aspektbasierte Sentiment-Analyse und die Erkennung subtiler Nuancen wie Ironie. Die Forschung erläutert den theoretischen Hintergrund, die verwendeten Datensätze und Methoden und bewertet die Leistung der LLMs anhand von Genauigkeit, Recall, Präzision und F1-Score. Die Ergebnisse zeigen, dass fortgeschrittenes Prompting die Sentiment-Analyse erheblich verbessert, wobei der Few-Shot-Ansatz bei GPT-4o-mini am besten abschneidet und Chain-of-Thought-Prompting die Ironie-Erkennung in Gemini-1.5-Flash um bis zu 46 % steigert. Somit deuten die Ergebnisse darauf hin, dass, obwohl fortgeschrittene Prompting-Techniken die Leistung insgesamt verbessern, Prompting-Strategien sowohl auf das Modell als auch auf die Aufgabe zugeschnitten werden müssen, da Few-Shot-Prompting für GPT-4o-mini am effektivsten ist und Chain-of-Thought bei Gemini-1.5-Flash für die Ironie-Erkennung hervorsticht. Dies unterstreicht die Bedeutung einer Abstimmung des Prompt-Designs sowohl auf die Architektur des LLM als auch auf die semantische Komplexität der Aufgabe.
English
This study investigates the use of prompt engineering to enhance large language models (LLMs), specifically GPT-4o-mini and gemini-1.5-flash, in sentiment analysis tasks. It evaluates advanced prompting techniques like few-shot learning, chain-of-thought prompting, and self-consistency against a baseline. Key tasks include sentiment classification, aspect-based sentiment analysis, and detecting subtle nuances such as irony. The research details the theoretical background, datasets, and methods used, assessing performance of LLMs as measured by accuracy, recall, precision, and F1 score. Findings reveal that advanced prompting significantly improves sentiment analysis, with the few-shot approach excelling in GPT-4o-mini and chain-of-thought prompting boosting irony detection in gemini-1.5-flash by up to 46%. Thus, while advanced prompting techniques overall improve performance, the fact that few-shot prompting works best for GPT-4o-mini and chain-of-thought excels in gemini-1.5-flash for irony detection suggests that prompting strategies must be tailored to both the model and the task. This highlights the importance of aligning prompt design with both the LLM's architecture and the semantic complexity of the task.