ChatPaper.aiChatPaper

バイトからアイデアへ:自己回帰型U-Netを用いた言語モデリング

From Bytes to Ideas: Language Modeling with Autoregressive U-Nets

June 17, 2025
著者: Mathurin Videau, Badr Youbi Idrissi, Alessandro Leite, Marc Schoenauer, Olivier Teytaud, David Lopez-Paz
cs.AI

要旨

トークン化は入力テキストに固定された粒度を課し、言語モデルがデータを処理する方法や予測する未来の範囲を固定化します。Byte Pair Encoding(BPE)や類似の手法は、テキストを一度分割し、静的な語彙を構築し、モデルをその選択に縛り付けます。私たちはこの硬直性を緩和するため、自己回帰型U-Netを導入し、モデルが自身のトークンを埋め込みながら学習するようにしました。このネットワークは生のバイトを読み取り、それらを単語にプールし、次に単語のペア、そして最大4単語までプールすることで、シーケンスのマルチスケールな視点を獲得します。より深い段階では、モデルはさらに先の未来を予測する必要があります——次のバイトではなく、次の数単語を予測するため、深い段階では広範な意味的パターンに焦点を当て、初期の段階では細かい詳細を処理します。事前学習の計算を慎重に調整・制御すると、浅い階層は強力なBPEベースラインに匹敵し、深い階層は有望な傾向を示します。トークン化がモデル内部に存在するため、同じシステムが文字レベルのタスクを処理し、低リソース言語間で知識を伝達することが可能になります。
English
Tokenization imposes a fixed granularity on the input text, freezing how a language model operates on data and how far in the future it predicts. Byte Pair Encoding (BPE) and similar schemes split text once, build a static vocabulary, and leave the model stuck with that choice. We relax this rigidity by introducing an autoregressive U-Net that learns to embed its own tokens as it trains. The network reads raw bytes, pools them into words, then pairs of words, then up to 4 words, giving it a multi-scale view of the sequence. At deeper stages, the model must predict further into the future -- anticipating the next few words rather than the next byte -- so deeper stages focus on broader semantic patterns while earlier stages handle fine details. When carefully tuning and controlling pretraining compute, shallow hierarchies tie strong BPE baselines, and deeper hierarchies have a promising trend. Because tokenization now lives inside the model, the same system can handle character-level tasks and carry knowledge across low-resource languages.
PDF63June 18, 2025