ChatPaper.aiChatPaper

大規模言語モデルの起源について:15,821の大規模言語モデルに対する進化ツリーとグラフ

On the Origin of LLMs: An Evolutionary Tree and Graph for 15,821 Large Language Models

July 19, 2023
著者: Sarah Gao, Andrew Kean Gao
cs.AI

要旨

2022年後半以降、ChatGPTやBardのような大規模言語モデル(LLM)が非常に注目を集め、数百万のユーザーを獲得しています。毎週数百もの新しいLLMが発表され、その多くが機械学習モデルとデータセットのリポジトリであるHugging Faceに登録されています。現在までに、約16,000のテキスト生成モデルがこのサイトにアップロードされています。LLMの大量流入を考えると、どのLLMの基盤、設定、トレーニング方法、ファミリーが人気またはトレンドとなっているかを知ることは興味深いです。しかし、利用可能な包括的なLLMインデックスは存在しません。我々は、Hugging FaceのLLMの比較的体系的な命名法を利用して、階層的クラスタリングを行い、n-グラムとTF-IDF(単語頻度-逆文書頻度)を用いてLLMのコミュニティを特定します。我々の手法は、LLMのファミリーを特定し、LLMを意味のあるサブグループに正確にクラスタリングすることに成功しています。我々は、15,821のLLMのアトラスであるConstellationをナビゲートし探索するための公開ウェブアプリケーションを提供します。Constellationは、デンドログラム、グラフ、ワードクラウド、散布図など、さまざまな視覚化を迅速に生成します。Constellationは以下のリンクで利用可能です: https://constellation.sites.stanford.edu/。
English
Since late 2022, Large Language Models (LLMs) have become very prominent with LLMs like ChatGPT and Bard receiving millions of users. Hundreds of new LLMs are announced each week, many of which are deposited to Hugging Face, a repository of machine learning models and datasets. To date, nearly 16,000 Text Generation models have been uploaded to the site. Given the huge influx of LLMs, it is of interest to know which LLM backbones, settings, training methods, and families are popular or trending. However, there is no comprehensive index of LLMs available. We take advantage of the relatively systematic nomenclature of Hugging Face LLMs to perform hierarchical clustering and identify communities amongst LLMs using n-grams and term frequency-inverse document frequency. Our methods successfully identify families of LLMs and accurately cluster LLMs into meaningful subgroups. We present a public web application to navigate and explore Constellation, our atlas of 15,821 LLMs. Constellation rapidly generates a variety of visualizations, namely dendrograms, graphs, word clouds, and scatter plots. Constellation is available at the following link: https://constellation.sites.stanford.edu/.
PDF478December 15, 2024