ChatPaper.aiChatPaper

モデルを訓練して、役に立たない思考を生成し、認識し、再構築する

Training Models to Generate, Recognize, and Reframe Unhelpful Thoughts

July 6, 2023
著者: Mounica Maddela, Megan Ung, Jing Xu, Andrea Madotto, Heather Foran, Y-Lan Boureau
cs.AI

要旨

多くの認知的なウェルビーイングアプローチ、例えば役に立たない思考を認識し再構成するといった手法は、過去数十年にわたって相当な実証的サポートを受けてきたが、セルフヘルプ形式での真に広範な普及には至っていない。その普及の障壁の一つは、十分に具体的で多様な専用練習教材の不足である。本研究では、現在の言語モデルを活用して、特定の文脈に合致した標準的な役に立たない思考パターンを例示する実質的に無制限の量の練習教材を生成し、適切なポジティブな再構成案を提案できるかどうかを検証する。我々は、特定のペルソナに基づいた役に立たない思考パターンを含む約1万の思考例と、それに伴う約2万7千のポジティブな再構成例からなる新規データセット「PATTERNREFRAME」を提案する。このデータセットを用いて現在のモデルを訓練および/または評価することで、既存のモデルが、追加のモデル訓練を必要とせず、または最小限の追加訓練で、豊富なテーラーメイドの練習教材と仮説を生成するための強力なツールとなり得ることを示す。
English
Many cognitive approaches to well-being, such as recognizing and reframing unhelpful thoughts, have received considerable empirical support over the past decades, yet still lack truly widespread adoption in self-help format. A barrier to that adoption is a lack of adequately specific and diverse dedicated practice material. This work examines whether current language models can be leveraged to both produce a virtually unlimited quantity of practice material illustrating standard unhelpful thought patterns matching specific given contexts, and generate suitable positive reframing proposals. We propose PATTERNREFRAME, a novel dataset of about 10k examples of thoughts containing unhelpful thought patterns conditioned on a given persona, accompanied by about 27k positive reframes. By using this dataset to train and/or evaluate current models, we show that existing models can already be powerful tools to help generate an abundance of tailored practice material and hypotheses, with no or minimal additional model training required.
PDF140December 15, 2024