Tabby: 言語モデルを用いた表形式データ合成
Tabby: Tabular Data Synthesis with Language Models
March 4, 2025
著者: Sonia Cromp, Satya Sai Srinath Namburi GNVV, Mohammed Alkhudhayri, Catherine Cao, Samuel Guo, Nicholas Roberts, Frederic Sala
cs.AI
要旨
大規模言語モデル(LLM)の進歩により、近年では合成テキストデータの品質が大幅に向上している一方で、表形式データの合成には比較的注目が集まっていません。本研究では、この格差を解消するため、標準的なTransformer言語モデルアーキテクチャにシンプルながら強力な事後学習修正を加えたTabbyを提案します。Tabbyは、カラムごとにパラメータセットを持つGated Mixture-of-Expertsを用いて、カラム間の差異を表現することを可能にします。実験的には、Tabbyによって生成されたデータの品質は、実データに匹敵するかそれに近いレベルに達しています。また、我々が開発した新しいLLMテーブル学習手法PlainとTabbyを組み合わせることで、従来の手法と比較して最大44%の品質向上を観測しました。さらに、Tabbyは表形式データにとどまらず、より一般的な構造化データにも適用可能であり、ネストされたJSONデータセットにおいても実データと同等の品質を達成しています。
English
While advances in large language models (LLMs) have greatly improved the
quality of synthetic text data in recent years, synthesizing tabular data has
received relatively less attention. We address this disparity with Tabby, a
simple but powerful post-training modification to the standard Transformer
language model architecture, enabling its use for tabular dataset synthesis.
Tabby enables the representation of differences across columns using Gated
Mixture-of-Experts, with column-specific sets of parameters. Empirically, Tabby
results in data quality near or equal to that of real data. By pairing our
novel LLM table training technique, Plain, with Tabby, we observe up to a 44%
improvement in quality over previous methods. We also show that Tabby extends
beyond tables to more general structured data, reaching parity with real data
on a nested JSON dataset as well.Summary
AI-Generated Summary