ChatPaper.aiChatPaper

Zijn ze geliefden of vrienden? Evaluatie van sociale redeneervaardigheden van LLM's in Engelse en Koreaanse dialogen

Are they lovers or friends? Evaluating LLMs' Social Reasoning in English and Korean Dialogues

October 21, 2025
Auteurs: Eunsu Kim, Junyeong Park, Juhyun Oh, Kiwoong Park, Seyoung Song, A. Seza Dogruoz, Najoung Kim, Alice Oh
cs.AI

Samenvatting

Naarmate grote taalmodellen (LLMs) steeds vaker worden ingezet in mens-AI-interacties, zijn hun sociale redeneervaardigheden in interpersoonlijke contexten cruciaal. Wij introduceren SCRIPTS, een dataset van 1.000 dialogen in het Engels en Koreaans, afkomstig uit filmscripts. De taak bestaat uit het evalueren van de sociale redeneervaardigheid van modellen om de interpersoonlijke relaties (bijvoorbeeld vrienden, zussen, geliefden) tussen sprekers in elke dialoog af te leiden. Elke dialoog is geannoteerd met probabilistische relationele labels (Zeer Waarschijnlijk, Minder Waarschijnlijk, Onwaarschijnlijk) door moedertaalsprekers (of equivalenten) van Koreaans en Engels uit Korea en de VS. Bij de evaluatie van negen modellen op onze taak behalen huidige propriëtaire LLMs ongeveer 75-80% op de Engelse dataset, terwijl hun prestaties op Koreaans dalen tot 58-69%. Opvallender is dat modellen in 10-25% van hun antwoorden Onwaarschijnlijke relaties selecteren. Bovendien ontdekken we dat denkmodellen en chain-of-thought prompting, die effectief zijn voor algemeen redeneren, minimale voordelen bieden voor sociaal redeneren en soms sociale vooroordelen versterken. Onze bevindingen onthullen aanzienlijke beperkingen in de sociale redeneervaardigheden van huidige LLMs, wat de noodzaak benadrukt om inspanningen te leveren voor de ontwikkeling van sociaal bewuste taalmodellen.
English
As large language models (LLMs) are increasingly used in human-AI interactions, their social reasoning capabilities in interpersonal contexts are critical. We introduce SCRIPTS, a 1k-dialogue dataset in English and Korean, sourced from movie scripts. The task involves evaluating models' social reasoning capability to infer the interpersonal relationships (e.g., friends, sisters, lovers) between speakers in each dialogue. Each dialogue is annotated with probabilistic relational labels (Highly Likely, Less Likely, Unlikely) by native (or equivalent) Korean and English speakers from Korea and the U.S. Evaluating nine models on our task, current proprietary LLMs achieve around 75-80% on the English dataset, whereas their performance on Korean drops to 58-69%. More strikingly, models select Unlikely relationships in 10-25% of their responses. Furthermore, we find that thinking models and chain-of-thought prompting, effective for general reasoning, provide minimal benefits for social reasoning and occasionally amplify social biases. Our findings reveal significant limitations in current LLMs' social reasoning capabilities, highlighting the need for efforts to develop socially-aware language models.
PDF61October 23, 2025