LMSYS-Chat-1M: Een grootschalige dataset van real-world LLM-conversaties
LMSYS-Chat-1M: A Large-Scale Real-World LLM Conversation Dataset
September 21, 2023
Auteurs: Lianmin Zheng, Wei-Lin Chiang, Ying Sheng, Tianle Li, Siyuan Zhuang, Zhanghao Wu, Yonghao Zhuang, Zhuohan Li, Zi Lin, Eric. P Xing, Joseph E. Gonzalez, Ion Stoica, Hao Zhang
cs.AI
Samenvatting
Het bestuderen van hoe mensen in realistische scenario's omgaan met grote taalmodellen (LLMs) wordt steeds belangrijker vanwege hun brede toepassing in diverse domeinen. In dit artikel introduceren we LMSYS-Chat-1M, een grootschalige dataset die één miljoen realistische gesprekken bevat met 25 state-of-the-art LLMs. Deze dataset is verzameld van 210K unieke IP-adressen in het wild via onze Vicuna-demo en de Chatbot Arena-website. We bieden een overzicht van de inhoud van de dataset, inclusief het curatieproces, basisstatistieken en onderwerpsverdeling, waarbij de diversiteit, originaliteit en schaal ervan worden benadrukt. We demonstreren de veelzijdigheid ervan aan de hand van vier use cases: het ontwikkelen van contentmoderatiemodellen die vergelijkbaar presteren met GPT-4, het opzetten van een veiligheidsbenchmark, het trainen van instructievolgende modellen die vergelijkbaar presteren met Vicuna, en het creëren van uitdagende benchmarkvragen. Wij geloven dat deze dataset een waardevolle bron zal zijn voor het begrijpen en bevorderen van de mogelijkheden van LLMs. De dataset is publiek beschikbaar op https://huggingface.co/datasets/lmsys/lmsys-chat-1m.
English
Studying how people interact with large language models (LLMs) in real-world
scenarios is increasingly important due to their widespread use in various
applications. In this paper, we introduce LMSYS-Chat-1M, a large-scale dataset
containing one million real-world conversations with 25 state-of-the-art LLMs.
This dataset is collected from 210K unique IP addresses in the wild on our
Vicuna demo and Chatbot Arena website. We offer an overview of the dataset's
content, including its curation process, basic statistics, and topic
distribution, highlighting its diversity, originality, and scale. We
demonstrate its versatility through four use cases: developing content
moderation models that perform similarly to GPT-4, building a safety benchmark,
training instruction-following models that perform similarly to Vicuna, and
creating challenging benchmark questions. We believe that this dataset will
serve as a valuable resource for understanding and advancing LLM capabilities.
The dataset is publicly available at
https://huggingface.co/datasets/lmsys/lmsys-chat-1m.