Entraîner des modèles à générer, reconnaître et reformuler des pensées inutiles
Training Models to Generate, Recognize, and Reframe Unhelpful Thoughts
July 6, 2023
Auteurs: Mounica Maddela, Megan Ung, Jing Xu, Andrea Madotto, Heather Foran, Y-Lan Boureau
cs.AI
Résumé
De nombreuses approches cognitives du bien-être, comme la reconnaissance et la reformulation des pensées inutiles, ont reçu un soutien empirique considérable au cours des dernières décennies, mais elles manquent encore d'une adoption véritablement généralisée dans un format d'auto-assistance. Un obstacle à cette adoption est le manque de matériel de pratique spécifique et diversifié dédié. Ce travail examine si les modèles de langage actuels peuvent être exploités pour produire une quantité virtuellement illimitée de matériel de pratique illustrant des schémas de pensée inutiles standard correspondant à des contextes spécifiques donnés, et pour générer des propositions de reformulation positive adaptées. Nous proposons PATTERNREFRAME, un nouvel ensemble de données d'environ 10 000 exemples de pensées contenant des schémas de pensée inutiles conditionnés à une persona donnée, accompagnés d'environ 27 000 reformulations positives. En utilisant cet ensemble de données pour entraîner et/ou évaluer les modèles actuels, nous montrons que les modèles existants peuvent déjà être des outils puissants pour aider à générer une abondance de matériel de pratique et d'hypothèses sur mesure, sans ou avec un minimum de formation supplémentaire du modèle requise.
English
Many cognitive approaches to well-being, such as recognizing and reframing
unhelpful thoughts, have received considerable empirical support over the past
decades, yet still lack truly widespread adoption in self-help format. A
barrier to that adoption is a lack of adequately specific and diverse dedicated
practice material. This work examines whether current language models can be
leveraged to both produce a virtually unlimited quantity of practice material
illustrating standard unhelpful thought patterns matching specific given
contexts, and generate suitable positive reframing proposals. We propose
PATTERNREFRAME, a novel dataset of about 10k examples of thoughts containing
unhelpful thought patterns conditioned on a given persona, accompanied by about
27k positive reframes. By using this dataset to train and/or evaluate current
models, we show that existing models can already be powerful tools to help
generate an abundance of tailored practice material and hypotheses, with no or
minimal additional model training required.