ChatPaper.aiChatPaper

대형 언어 모델에서의 성격 특성

Personality Traits in Large Language Models

July 1, 2023
저자: Mustafa Safdari, Greg Serapio-García, Clément Crepy, Stephen Fitz, Peter Romero, Luning Sun, Marwa Abdulhai, Aleksandra Faust, Maja Matarić
cs.AI

초록

대규모 언어 모델(LLM)의 등장은 자연어 처리 분야에 혁신을 가져왔으며, 일관성 있고 문맥에 맞는 텍스트 생성을 가능하게 하였습니다. LLM이 대화형 에이전트를 점점 더 주도함에 따라, 이러한 모델들이 방대한 양의 인간 생성 데이터를 학습함으로써 내재된 합성된 성격이 주목받고 있습니다. 성격은 의사소통의 효과를 결정하는 중요한 요소이기 때문에, 우리는 널리 사용되는 LLM에서 생성된 텍스트에 나타나는 성격 특성을 검증된 심리 측정 테스트를 통해 관리하고, 정량화, 분석, 형성하는 포괄적인 방법을 제시합니다. 우리는 다음과 같은 사실을 발견했습니다: 1) 특정 프롬프트 설정 하에서 일부 LLM의 출력에서 시뮬레이션된 성격은 신뢰할 수 있고 타당하며; 2) LLM 시뮬레이션된 성격의 신뢰성과 타당성에 대한 증거는 더 크고 지시 미세 조정된 모델에서 더 강력하며; 3) LLM 출력의 성격은 특정 성격 프로파일을 모방하기 위해 원하는 차원을 따라 형성될 수 있습니다. 또한, 우리는 측정 및 형성 프레임워크의 잠재적 응용과 윤리적 함의, 특히 LLM의 책임 있는 사용에 대해 논의합니다.
English
The advent of large language models (LLMs) has revolutionized natural language processing, enabling the generation of coherent and contextually relevant text. As LLMs increasingly power conversational agents, the synthesized personality embedded in these models by virtue of their training on large amounts of human-generated data draws attention. Since personality is an important factor determining the effectiveness of communication, we present a comprehensive method for administering validated psychometric tests and quantifying, analyzing, and shaping personality traits exhibited in text generated from widely-used LLMs. We find that: 1) personality simulated in the outputs of some LLMs (under specific prompting configurations) is reliable and valid; 2) evidence of reliability and validity of LLM-simulated personality is stronger for larger and instruction fine-tuned models; and 3) personality in LLM outputs can be shaped along desired dimensions to mimic specific personality profiles. We also discuss potential applications and ethical implications of our measurement and shaping framework, especially regarding responsible use of LLMs.
PDF200December 15, 2024