모델을 훈련시켜 비생산적인 사고를 생성, 인식, 재구성하는 방법
Training Models to Generate, Recognize, and Reframe Unhelpful Thoughts
July 6, 2023
저자: Mounica Maddela, Megan Ung, Jing Xu, Andrea Madotto, Heather Foran, Y-Lan Boureau
cs.AI
초록
과거 수십 년 동안 도움이 되지 않는 생각을 인식하고 재구성하는 것과 같은 많은 인지적 웰빙 접근법이 상당한 실증적 지지를 받아왔음에도 불구하고, 여전히 자기 도움 형식으로 진정한 대중적 채택을 이루지 못하고 있습니다. 이러한 채택의 장벽은 충분히 구체적이고 다양한 전용 연습 자료의 부재입니다. 본 연구는 현재의 언어 모델이 특정 주어진 맥락에 맞는 표준적인 도움이 되지 않는 사고 패턴을 설명하는 거의 무제한의 연습 자료를 생성하고, 적절한 긍정적 재구성 제안을 생성하는 데 활용될 수 있는지 여부를 검토합니다. 우리는 주어진 페르소나에 따라 조건화된 도움이 되지 않는 사고 패턴을 포함한 약 10,000개의 사례와 약 27,000개의 긍정적 재구성으로 구성된 새로운 데이터셋인 PATTERNREFRAME를 제안합니다. 이 데이터셋을 사용하여 현재 모델을 훈련 및/또는 평가함으로써, 기존 모델이 추가 모델 훈련 없이 또는 최소한의 추가 훈련만으로도 맞춤형 연습 자료와 가설을 대량으로 생성하는 데 강력한 도구가 될 수 있음을 보여줍니다.
English
Many cognitive approaches to well-being, such as recognizing and reframing
unhelpful thoughts, have received considerable empirical support over the past
decades, yet still lack truly widespread adoption in self-help format. A
barrier to that adoption is a lack of adequately specific and diverse dedicated
practice material. This work examines whether current language models can be
leveraged to both produce a virtually unlimited quantity of practice material
illustrating standard unhelpful thought patterns matching specific given
contexts, and generate suitable positive reframing proposals. We propose
PATTERNREFRAME, a novel dataset of about 10k examples of thoughts containing
unhelpful thought patterns conditioned on a given persona, accompanied by about
27k positive reframes. By using this dataset to train and/or evaluate current
models, we show that existing models can already be powerful tools to help
generate an abundance of tailored practice material and hypotheses, with no or
minimal additional model training required.