TabTune : Une bibliothèque unifiée pour l'inférence et le réglage fin de modèles de fondation tabulaires
TabTune: A Unified Library for Inference and Fine-Tuning Tabular Foundation Models
November 4, 2025
papers.authors: Aditya Tanna, Pratinav Seth, Mohamed Bouadi, Utsav Avaiya, Vinay Kumar Sankarapu
cs.AI
papers.abstract
Les modèles de fondation tabulaires constituent un paradigme émergent dans l'apprentissage de données structurées, étendant les avantages du pré-entraînement à grande échelle aux domaines tabulaires. Cependant, leur adoption reste limitée en raison de pipelines de prétraitement hétérogènes, d'API fragmentées, de procédures de fine-tuning incohérentes et de l'absence d'évaluation standardisée pour des métriques orientées déploiement comme l'étalonnage et l'équité. Nous présentons TabTune, une bibliothèque unifiée qui standardise le flux de travail complet pour les modèles de fondation tabulaires via une interface unique. TabTune offre un accès cohérent à sept modèles state-of-the-art supportant multiples stratégies d'adaptation, incluant l'inférence zero-shot, le méta-apprentissage, le fine-tuning supervisé (SFT) et le fine-tuning efficace en paramètres (PEFT). Le framework automatise le prétraitement adapté aux modèles, gère l'hétérogénéité architecturale en interne et intègre des modules d'évaluation pour les performances, l'étalonnage et l'équité. Conçu pour l'extensibilité et la reproductibilité, TabTune permet un benchmarking cohérent des stratégies d'adaptation des modèles de fondation tabulaires. La bibliothèque est open source et disponible à l'adresse https://github.com/Lexsi-Labs/TabTune.
English
Tabular foundation models represent a growing paradigm in structured data
learning, extending the benefits of large-scale pretraining to tabular domains.
However, their adoption remains limited due to heterogeneous preprocessing
pipelines, fragmented APIs, inconsistent fine-tuning procedures, and the
absence of standardized evaluation for deployment-oriented metrics such as
calibration and fairness. We present TabTune, a unified library that
standardizes the complete workflow for tabular foundation models through a
single interface. TabTune provides consistent access to seven state-of-the-art
models supporting multiple adaptation strategies, including zero-shot
inference, meta-learning, supervised fine-tuning (SFT), and parameter-efficient
fine-tuning (PEFT). The framework automates model-aware preprocessing, manages
architectural heterogeneity internally, and integrates evaluation modules for
performance, calibration, and fairness. Designed for extensibility and
reproducibility, TabTune enables consistent benchmarking of adaptation
strategies of tabular foundation models. The library is open source and
available at https://github.com/Lexsi-Labs/TabTune .