ChatPaper.aiChatPaper

Entrenamiento de modelos para generar, reconocer y reformular pensamientos inútiles

Training Models to Generate, Recognize, and Reframe Unhelpful Thoughts

July 6, 2023
Autores: Mounica Maddela, Megan Ung, Jing Xu, Andrea Madotto, Heather Foran, Y-Lan Boureau
cs.AI

Resumen

Muchos enfoques cognitivos para el bienestar, como reconocer y reformular pensamientos poco útiles, han recibido un considerable apoyo empírico en las últimas décadas, pero aún carecen de una adopción verdaderamente generalizada en formato de autoayuda. Una barrera para esa adopción es la falta de material de práctica específico y diverso dedicado. Este trabajo examina si los modelos de lenguaje actuales pueden aprovecharse tanto para producir una cantidad prácticamente ilimitada de material de práctica que ilustre patrones estándar de pensamientos poco útiles que coincidan con contextos específicos dados, como para generar propuestas adecuadas de reformulación positiva. Proponemos PATTERNREFRAME, un nuevo conjunto de datos de aproximadamente 10k ejemplos de pensamientos que contienen patrones de pensamiento poco útiles condicionados a una persona dada, acompañados de aproximadamente 27k reformulaciones positivas. Al utilizar este conjunto de datos para entrenar y/o evaluar los modelos actuales, demostramos que los modelos existentes ya pueden ser herramientas poderosas para ayudar a generar una abundancia de material de práctica e hipótesis personalizadas, sin necesidad de entrenamiento adicional del modelo o con un mínimo requerido.
English
Many cognitive approaches to well-being, such as recognizing and reframing unhelpful thoughts, have received considerable empirical support over the past decades, yet still lack truly widespread adoption in self-help format. A barrier to that adoption is a lack of adequately specific and diverse dedicated practice material. This work examines whether current language models can be leveraged to both produce a virtually unlimited quantity of practice material illustrating standard unhelpful thought patterns matching specific given contexts, and generate suitable positive reframing proposals. We propose PATTERNREFRAME, a novel dataset of about 10k examples of thoughts containing unhelpful thought patterns conditioned on a given persona, accompanied by about 27k positive reframes. By using this dataset to train and/or evaluate current models, we show that existing models can already be powerful tools to help generate an abundance of tailored practice material and hypotheses, with no or minimal additional model training required.
PDF140December 15, 2024