ChatPaper.aiChatPaper

SOTOPIA-π: Interaktives Lernen sozial intelligenter sprachlicher Agenten

SOTOPIA-π: Interactive Learning of Socially Intelligent Language Agents

March 13, 2024
Autoren: Ruiyi Wang, Haofei Yu, Wenxin Zhang, Zhengyang Qi, Maarten Sap, Graham Neubig, Yonatan Bisk, Hao Zhu
cs.AI

Zusammenfassung

Menschen erlernen soziale Fähigkeiten sowohl durch Nachahmung als auch durch soziale Interaktion. Dieser soziale Lernprozess wird von der bestehenden Forschung zum Aufbau von Sprachagenten weitgehend vernachlässigt. Motiviert durch diese Lücke schlagen wir eine interaktive Lernmethode namens SOTOPIA-pi vor, um die soziale Intelligenz von Sprachagenten zu verbessern. Diese Methode nutzt Verhaltensklonung und Selbstverstärkungstraining auf gefilterten sozialen Interaktionsdaten gemäß den Bewertungen eines großen Sprachmodells (LLM). Wir zeigen, dass unsere Trainingsmethode einem 7B LLM ermöglicht, die Fähigkeit zur Erreichung sozialer Ziele eines Expertenmodells (Agent auf Basis von GPT-4) zu erreichen, während die Sicherheit von Sprachagenten verbessert wird und die allgemeine Frage-Antwort-Fähigkeit auf dem MMLU-Benchmark beibehalten wird. Wir stellen auch fest, dass dieses Trainingsparadigma einige Schwierigkeiten bei der LLM-basierten Bewertung der sozialen Intelligenz aufdeckt: LLM-basierte Evaluatoren überschätzen die Fähigkeiten der Sprachagenten, die speziell für soziale Interaktion trainiert wurden.
English
Humans learn social skills through both imitation and social interaction. This social learning process is largely understudied by existing research on building language agents. Motivated by this gap, we propose an interactive learning method, SOTOPIA-pi, improving the social intelligence of language agents. This method leverages behavior cloning and self-reinforcement training on filtered social interaction data according to large language model (LLM) ratings. We show that our training method allows a 7B LLM to reach the social goal completion ability of an expert model (GPT-4-based agent), while improving the safety of language agents and maintaining general QA ability on the MMLU benchmark. We also find that this training paradigm uncovers some difficulties in LLM-based evaluation of social intelligence: LLM-based evaluators overestimate the abilities of the language agents trained specifically for social interaction.

Summary

AI-Generated Summary

PDF221December 15, 2024