LMSYS-Chat-1M: Un dataset su larga scala di conversazioni reali con modelli linguistici di grandi dimensioni
LMSYS-Chat-1M: A Large-Scale Real-World LLM Conversation Dataset
September 21, 2023
Autori: Lianmin Zheng, Wei-Lin Chiang, Ying Sheng, Tianle Li, Siyuan Zhuang, Zhanghao Wu, Yonghao Zhuang, Zhuohan Li, Zi Lin, Eric. P Xing, Joseph E. Gonzalez, Ion Stoica, Hao Zhang
cs.AI
Abstract
Studiare come le persone interagiscono con i grandi modelli linguistici (LLM) in scenari reali è sempre più importante a causa del loro ampio utilizzo in varie applicazioni. In questo articolo, presentiamo LMSYS-Chat-1M, un dataset su larga scala contenente un milione di conversazioni reali con 25 LLM all'avanguardia. Questo dataset è stato raccolto da 210K indirizzi IP unici in contesti reali attraverso la nostra demo Vicuna e il sito web Chatbot Arena. Forniamo una panoramica del contenuto del dataset, includendo il processo di curatela, le statistiche di base e la distribuzione degli argomenti, evidenziandone la diversità, l'originalità e la scala. Dimostriamo la sua versatilità attraverso quattro casi d'uso: lo sviluppo di modelli di moderazione dei contenuti che performano in modo simile a GPT-4, la creazione di un benchmark per la sicurezza, l'addestramento di modelli che seguono le istruzioni in modo simile a Vicuna e la creazione di domande benchmark impegnative. Crediamo che questo dataset rappresenterà una risorsa preziosa per comprendere e migliorare le capacità degli LLM. Il dataset è disponibile pubblicamente all'indirizzo https://huggingface.co/datasets/lmsys/lmsys-chat-1m.
English
Studying how people interact with large language models (LLMs) in real-world
scenarios is increasingly important due to their widespread use in various
applications. In this paper, we introduce LMSYS-Chat-1M, a large-scale dataset
containing one million real-world conversations with 25 state-of-the-art LLMs.
This dataset is collected from 210K unique IP addresses in the wild on our
Vicuna demo and Chatbot Arena website. We offer an overview of the dataset's
content, including its curation process, basic statistics, and topic
distribution, highlighting its diversity, originality, and scale. We
demonstrate its versatility through four use cases: developing content
moderation models that perform similarly to GPT-4, building a safety benchmark,
training instruction-following models that perform similarly to Vicuna, and
creating challenging benchmark questions. We believe that this dataset will
serve as a valuable resource for understanding and advancing LLM capabilities.
The dataset is publicly available at
https://huggingface.co/datasets/lmsys/lmsys-chat-1m.