Treinando Modelos para Gerar, Reconhecer e Reformular Pensamentos Inúteis
Training Models to Generate, Recognize, and Reframe Unhelpful Thoughts
July 6, 2023
Autores: Mounica Maddela, Megan Ung, Jing Xu, Andrea Madotto, Heather Foran, Y-Lan Boureau
cs.AI
Resumo
Muitas abordagens cognitivas para o bem-estar, como reconhecer e reformular pensamentos inúteis, receberam considerável apoio empírico ao longo das últimas décadas, mas ainda carecem de uma adoção verdadeiramente generalizada em formato de autoajuda. Uma barreira para essa adoção é a falta de material de prática dedicado suficientemente específico e diversificado. Este trabalho examina se os modelos de linguagem atuais podem ser utilizados tanto para produzir uma quantidade virtualmente ilimitada de material de prática ilustrando padrões de pensamento inúteis padrão que correspondem a contextos específicos dados, quanto para gerar propostas adequadas de reformulação positiva. Propomos o PATTERNREFRAME, um novo conjunto de dados com cerca de 10 mil exemplos de pensamentos contendo padrões de pensamento inúteis condicionados a uma determinada persona, acompanhados por cerca de 27 mil reformulações positivas. Ao usar esse conjunto de dados para treinar e/ou avaliar os modelos atuais, mostramos que os modelos existentes já podem ser ferramentas poderosas para ajudar a gerar uma abundância de material de prática e hipóteses personalizadas, sem ou com mínimo treinamento adicional do modelo necessário.
English
Many cognitive approaches to well-being, such as recognizing and reframing
unhelpful thoughts, have received considerable empirical support over the past
decades, yet still lack truly widespread adoption in self-help format. A
barrier to that adoption is a lack of adequately specific and diverse dedicated
practice material. This work examines whether current language models can be
leveraged to both produce a virtually unlimited quantity of practice material
illustrating standard unhelpful thought patterns matching specific given
contexts, and generate suitable positive reframing proposals. We propose
PATTERNREFRAME, a novel dataset of about 10k examples of thoughts containing
unhelpful thought patterns conditioned on a given persona, accompanied by about
27k positive reframes. By using this dataset to train and/or evaluate current
models, we show that existing models can already be powerful tools to help
generate an abundance of tailored practice material and hypotheses, with no or
minimal additional model training required.