ChatPaper.aiChatPaper

Empirische Studie des gegenseitigen Verstärkungseffekts und Anwendung in Few-shot Textklassifikationsaufgaben über Prompt

Empirical Study of Mutual Reinforcement Effect and Application in Few-shot Text Classification Tasks via Prompt

October 13, 2024
Autoren: Chengguang Gan, Tatsunori Mori
cs.AI

Zusammenfassung

Der Mutual Reinforcement Effect (MRE) untersucht die synergetische Beziehung zwischen der Klassifizierung auf Wortebene und der Klassifizierung auf Textebene bei Textklassifizierungsaufgaben. Er postuliert, dass die Leistung beider Klassifizierungsebenen gegenseitig gesteigert werden kann. Allerdings wurde dieser Mechanismus in früheren Forschungsarbeiten nicht ausreichend nachgewiesen oder erklärt. Um diese Lücke zu schließen, verwenden wir empirische Experimente, um die MRE-Theorie zu beobachten und zu untermauern. Unsere Experimente mit 21 MRE-Mix-Datensätzen zeigten das Vorhandensein von MRE im Modell und dessen Auswirkungen. Insbesondere führten wir Vergleichsexperimente mit Feinabstimmung durch. Die Ergebnisse der Vergleichsexperimente bestätigen die Existenz von MRE. Darüber hinaus erweiterten wir die Anwendung von MRE auf das Prompt-Learning, wobei Informationen auf Wortebene als Verbalisierer genutzt werden, um die Vorhersage von Textklassifizierungsetiketten des Modells zu stärken. In unserem abschließenden Experiment übertraf der F1-Score signifikant die Basislinie in 18 von 21 MRE-Mix-Datensätzen, was die Idee untermauert, dass Informationen auf Wortebene das Verständnis des Sprachmodells für den Text als Ganzes verbessern.
English
The Mutual Reinforcement Effect (MRE) investigates the synergistic relationship between word-level and text-level classifications in text classification tasks. It posits that the performance of both classification levels can be mutually enhanced. However, this mechanism has not been adequately demonstrated or explained in prior research. To address this gap, we employ empirical experiment to observe and substantiate the MRE theory. Our experiments on 21 MRE mix datasets revealed the presence of MRE in the model and its impact. Specifically, we conducted compare experiments use fine-tune. The results of findings from comparison experiments corroborates the existence of MRE. Furthermore, we extended the application of MRE to prompt learning, utilizing word-level information as a verbalizer to bolster the model's prediction of text-level classification labels. In our final experiment, the F1-score significantly surpassed the baseline in 18 out of 21 MRE Mix datasets, further validating the notion that word-level information enhances the language model's comprehension of the text as a whole.

Summary

AI-Generated Summary

PDF32November 16, 2024