Entrenamiento de modelos para generar, reconocer y reformular pensamientos inútiles
Training Models to Generate, Recognize, and Reframe Unhelpful Thoughts
July 6, 2023
Autores: Mounica Maddela, Megan Ung, Jing Xu, Andrea Madotto, Heather Foran, Y-Lan Boureau
cs.AI
Resumen
Muchos enfoques cognitivos para el bienestar, como reconocer y reformular pensamientos poco útiles, han recibido un considerable apoyo empírico en las últimas décadas, pero aún carecen de una adopción verdaderamente generalizada en formato de autoayuda. Una barrera para esa adopción es la falta de material de práctica específico y diverso dedicado. Este trabajo examina si los modelos de lenguaje actuales pueden aprovecharse tanto para producir una cantidad prácticamente ilimitada de material de práctica que ilustre patrones estándar de pensamientos poco útiles que coincidan con contextos específicos dados, como para generar propuestas adecuadas de reformulación positiva. Proponemos PATTERNREFRAME, un nuevo conjunto de datos de aproximadamente 10k ejemplos de pensamientos que contienen patrones de pensamiento poco útiles condicionados a una persona dada, acompañados de aproximadamente 27k reformulaciones positivas. Al utilizar este conjunto de datos para entrenar y/o evaluar los modelos actuales, demostramos que los modelos existentes ya pueden ser herramientas poderosas para ayudar a generar una abundancia de material de práctica e hipótesis personalizadas, sin necesidad de entrenamiento adicional del modelo o con un mínimo requerido.
English
Many cognitive approaches to well-being, such as recognizing and reframing
unhelpful thoughts, have received considerable empirical support over the past
decades, yet still lack truly widespread adoption in self-help format. A
barrier to that adoption is a lack of adequately specific and diverse dedicated
practice material. This work examines whether current language models can be
leveraged to both produce a virtually unlimited quantity of practice material
illustrating standard unhelpful thought patterns matching specific given
contexts, and generate suitable positive reframing proposals. We propose
PATTERNREFRAME, a novel dataset of about 10k examples of thoughts containing
unhelpful thought patterns conditioned on a given persona, accompanied by about
27k positive reframes. By using this dataset to train and/or evaluate current
models, we show that existing models can already be powerful tools to help
generate an abundance of tailored practice material and hypotheses, with no or
minimal additional model training required.