ChatPaper.aiChatPaper

Estudo Empírico do Efeito de Reforço Mútuo e sua Aplicação em Tarefas de Classificação de Texto com Poucas Amostras via Prompt.

Empirical Study of Mutual Reinforcement Effect and Application in Few-shot Text Classification Tasks via Prompt

October 13, 2024
Autores: Chengguang Gan, Tatsunori Mori
cs.AI

Resumo

O Efeito de Reforço Mútuo (ERM) investiga a relação sinérgica entre classificações ao nível da palavra e ao nível do texto em tarefas de classificação de texto. Ele postula que o desempenho de ambos os níveis de classificação pode ser mutuamente aprimorado. No entanto, esse mecanismo não foi adequadamente demonstrado ou explicado em pesquisas anteriores. Para abordar essa lacuna, empregamos experimentos empíricos para observar e fundamentar a teoria do ERM. Nossos experimentos em 21 conjuntos de dados mistos de ERM revelaram a presença do ERM no modelo e seu impacto. Especificamente, realizamos experimentos de comparação usando ajuste fino. Os resultados das descobertas dos experimentos de comparação corroboram a existência do ERM. Além disso, estendemos a aplicação do ERM para aprendizado de prompt, utilizando informações ao nível da palavra como um verbalizador para reforçar a previsão do modelo de rótulos de classificação ao nível do texto. Em nosso experimento final, o escore F1 superou significativamente a linha de base em 18 dos 21 conjuntos de dados mistos de ERM, validando ainda mais a ideia de que as informações ao nível da palavra aprimoram a compreensão do modelo de linguagem do texto como um todo.
English
The Mutual Reinforcement Effect (MRE) investigates the synergistic relationship between word-level and text-level classifications in text classification tasks. It posits that the performance of both classification levels can be mutually enhanced. However, this mechanism has not been adequately demonstrated or explained in prior research. To address this gap, we employ empirical experiment to observe and substantiate the MRE theory. Our experiments on 21 MRE mix datasets revealed the presence of MRE in the model and its impact. Specifically, we conducted compare experiments use fine-tune. The results of findings from comparison experiments corroborates the existence of MRE. Furthermore, we extended the application of MRE to prompt learning, utilizing word-level information as a verbalizer to bolster the model's prediction of text-level classification labels. In our final experiment, the F1-score significantly surpassed the baseline in 18 out of 21 MRE Mix datasets, further validating the notion that word-level information enhances the language model's comprehension of the text as a whole.

Summary

AI-Generated Summary

PDF32November 16, 2024