ChatPaper.aiChatPaper

Sobre a Origem dos LLMs: Uma Árvore Evolutiva e Grafo para 15.821 Modelos de Linguagem de Grande Escala

On the Origin of LLMs: An Evolutionary Tree and Graph for 15,821 Large Language Models

July 19, 2023
Autores: Sarah Gao, Andrew Kean Gao
cs.AI

Resumo

Desde o final de 2022, os Modelos de Linguagem de Grande Escala (LLMs, na sigla em inglês) ganharam grande destaque, com modelos como ChatGPT e Bard atraindo milhões de usuários. Centenas de novos LLMs são anunciados a cada semana, muitos dos quais são depositados no Hugging Face, um repositório de modelos de aprendizado de máquina e conjuntos de dados. Até o momento, quase 16.000 modelos de geração de texto foram carregados no site. Diante do grande influxo de LLMs, é interessante saber quais arquiteturas, configurações, métodos de treinamento e famílias de LLMs estão em alta ou são populares. No entanto, não há um índice abrangente de LLMs disponível. Aproveitamos a nomenclatura relativamente sistemática dos LLMs no Hugging Face para realizar agrupamento hierárquico e identificar comunidades entre os LLMs usando n-gramas e a frequência de termos-inverso da frequência no documento. Nossos métodos identificam com sucesso famílias de LLMs e agrupam os modelos em subgrupos significativos de forma precisa. Apresentamos uma aplicação web pública para navegar e explorar o Constellation, nosso atlas de 15.821 LLMs. O Constellation gera rapidamente uma variedade de visualizações, como dendrogramas, grafos, nuvens de palavras e gráficos de dispersão. O Constellation está disponível no seguinte link: https://constellation.sites.stanford.edu/.
English
Since late 2022, Large Language Models (LLMs) have become very prominent with LLMs like ChatGPT and Bard receiving millions of users. Hundreds of new LLMs are announced each week, many of which are deposited to Hugging Face, a repository of machine learning models and datasets. To date, nearly 16,000 Text Generation models have been uploaded to the site. Given the huge influx of LLMs, it is of interest to know which LLM backbones, settings, training methods, and families are popular or trending. However, there is no comprehensive index of LLMs available. We take advantage of the relatively systematic nomenclature of Hugging Face LLMs to perform hierarchical clustering and identify communities amongst LLMs using n-grams and term frequency-inverse document frequency. Our methods successfully identify families of LLMs and accurately cluster LLMs into meaningful subgroups. We present a public web application to navigate and explore Constellation, our atlas of 15,821 LLMs. Constellation rapidly generates a variety of visualizations, namely dendrograms, graphs, word clouds, and scatter plots. Constellation is available at the following link: https://constellation.sites.stanford.edu/.
PDF478February 8, 2026