ChatPaper.aiChatPaper

TabTune: 表データ基盤モデルの推論とファインチューニングのための統合ライブラリ

TabTune: A Unified Library for Inference and Fine-Tuning Tabular Foundation Models

November 4, 2025
著者: Aditya Tanna, Pratinav Seth, Mohamed Bouadi, Utsav Avaiya, Vinay Kumar Sankarapu
cs.AI

要旨

表データ基盤モデルは、構造化データ学習における新たなパラダイムとして台頭しており、大規模事前学習の利点を表データ領域に拡張するものです。しかしながら、異種混在の前処理パイプライン、断片化されたAPI、一貫性のないファインチューニング手順、さらに較正や公平性といった実装指向の指標に対する標準化された評価手法の欠如などから、その普及は依然として限られています。本論文では、単一インターフェースを通じて表データ基盤モデルの完全なワークフローを標準化する統合ライブラリ「TabTune」を提案します。TabTuneは、ゼロショット推論、メタ学習、教師ありファインチューニング(SFT)、パラメータ効率型ファインチューニング(PEFT)といった複数の適応戦略をサポートする7つの最先端モデルへの一貫したアクセスを提供します。本フレームワークはモデルを意識した前処理を自動化し、内部でアーキテクチャの異質性を管理するとともに、性能、較正、公平性の評価モジュールを統合しています。拡張性と再現性を考慮して設計されたTabTuneは、表データ基盤モデルの適応戦略に関する一貫したベンチマーク評価を可能にします。本ライブラリはオープンソースであり、https://github.com/Lexsi-Labs/TabTune で公開されています。
English
Tabular foundation models represent a growing paradigm in structured data learning, extending the benefits of large-scale pretraining to tabular domains. However, their adoption remains limited due to heterogeneous preprocessing pipelines, fragmented APIs, inconsistent fine-tuning procedures, and the absence of standardized evaluation for deployment-oriented metrics such as calibration and fairness. We present TabTune, a unified library that standardizes the complete workflow for tabular foundation models through a single interface. TabTune provides consistent access to seven state-of-the-art models supporting multiple adaptation strategies, including zero-shot inference, meta-learning, supervised fine-tuning (SFT), and parameter-efficient fine-tuning (PEFT). The framework automates model-aware preprocessing, manages architectural heterogeneity internally, and integrates evaluation modules for performance, calibration, and fairness. Designed for extensibility and reproducibility, TabTune enables consistent benchmarking of adaptation strategies of tabular foundation models. The library is open source and available at https://github.com/Lexsi-Labs/TabTune .
PDF142December 1, 2025