ChatPaper.aiChatPaper

Sull'origine degli LLM: Un albero evolutivo e un grafo per 15.821 modelli linguistici di grandi dimensioni

On the Origin of LLMs: An Evolutionary Tree and Graph for 15,821 Large Language Models

July 19, 2023
Autori: Sarah Gao, Andrew Kean Gao
cs.AI

Abstract

Dalla fine del 2022, i Large Language Models (LLM) hanno acquisito una notevole rilevanza, con modelli come ChatGPT e Bard che hanno raggiunto milioni di utenti. Ogni settimana vengono annunciati centinaia di nuovi LLM, molti dei quali vengono depositati su Hugging Face, un repository di modelli di machine learning e dataset. Ad oggi, quasi 16.000 modelli di generazione di testo sono stati caricati sulla piattaforma. Data l'enorme afflusso di LLM, è interessante sapere quali architetture, impostazioni, metodi di addestramento e famiglie di LLM siano popolari o in tendenza. Tuttavia, non esiste un indice completo degli LLM disponibili. Sfruttiamo la nomenclatura relativamente sistematica degli LLM su Hugging Face per eseguire clustering gerarchico e identificare comunità tra gli LLM utilizzando n-grammi e la frequenza del termine inversa alla frequenza nei documenti (TF-IDF). I nostri metodi identificano con successo famiglie di LLM e raggruppano accuratamente i modelli in sottogruppi significativi. Presentiamo un'applicazione web pubblica per navigare ed esplorare Constellation, il nostro atlante di 15.821 LLM. Constellation genera rapidamente una varietà di visualizzazioni, tra cui dendrogrammi, grafici, word cloud e scatter plot. Constellation è disponibile al seguente link: https://constellation.sites.stanford.edu/.
English
Since late 2022, Large Language Models (LLMs) have become very prominent with LLMs like ChatGPT and Bard receiving millions of users. Hundreds of new LLMs are announced each week, many of which are deposited to Hugging Face, a repository of machine learning models and datasets. To date, nearly 16,000 Text Generation models have been uploaded to the site. Given the huge influx of LLMs, it is of interest to know which LLM backbones, settings, training methods, and families are popular or trending. However, there is no comprehensive index of LLMs available. We take advantage of the relatively systematic nomenclature of Hugging Face LLMs to perform hierarchical clustering and identify communities amongst LLMs using n-grams and term frequency-inverse document frequency. Our methods successfully identify families of LLMs and accurately cluster LLMs into meaningful subgroups. We present a public web application to navigate and explore Constellation, our atlas of 15,821 LLMs. Constellation rapidly generates a variety of visualizations, namely dendrograms, graphs, word clouds, and scatter plots. Constellation is available at the following link: https://constellation.sites.stanford.edu/.
PDF478February 8, 2026