LMSYS-Chat-1M: Масштабный набор данных реальных диалогов с использованием крупных языковых моделей
LMSYS-Chat-1M: A Large-Scale Real-World LLM Conversation Dataset
September 21, 2023
Авторы: Lianmin Zheng, Wei-Lin Chiang, Ying Sheng, Tianle Li, Siyuan Zhuang, Zhanghao Wu, Yonghao Zhuang, Zhuohan Li, Zi Lin, Eric. P Xing, Joseph E. Gonzalez, Ion Stoica, Hao Zhang
cs.AI
Аннотация
Изучение того, как люди взаимодействуют с большими языковыми моделями (LLM) в реальных сценариях, становится все более важным из-за их широкого использования в различных приложениях. В этой статье мы представляем LMSYS-Chat-1M — крупномасштабный набор данных, содержащий один миллион реальных диалогов с 25 современными LLM. Этот набор данных был собран с 210 тысяч уникальных IP-адресов в естественной среде на нашем демо-сайте Vicuna и платформе Chatbot Arena. Мы предоставляем обзор содержания набора данных, включая процесс его формирования, базовую статистику и распределение тем, подчеркивая его разнообразие, оригинальность и масштаб. Мы демонстрируем его универсальность через четыре примера использования: разработку моделей модерации контента, сопоставимых по производительности с GPT-4, создание тестового набора для оценки безопасности, обучение моделей, следующих инструкциям, с производительностью, аналогичной Vicuna, и создание сложных тестовых вопросов. Мы считаем, что этот набор данных станет ценным ресурсом для понимания и развития возможностей LLM. Набор данных доступен публично по адресу: https://huggingface.co/datasets/lmsys/lmsys-chat-1m.
English
Studying how people interact with large language models (LLMs) in real-world
scenarios is increasingly important due to their widespread use in various
applications. In this paper, we introduce LMSYS-Chat-1M, a large-scale dataset
containing one million real-world conversations with 25 state-of-the-art LLMs.
This dataset is collected from 210K unique IP addresses in the wild on our
Vicuna demo and Chatbot Arena website. We offer an overview of the dataset's
content, including its curation process, basic statistics, and topic
distribution, highlighting its diversity, originality, and scale. We
demonstrate its versatility through four use cases: developing content
moderation models that perform similarly to GPT-4, building a safety benchmark,
training instruction-following models that perform similarly to Vicuna, and
creating challenging benchmark questions. We believe that this dataset will
serve as a valuable resource for understanding and advancing LLM capabilities.
The dataset is publicly available at
https://huggingface.co/datasets/lmsys/lmsys-chat-1m.