ChatPaper.aiChatPaper

TabTune : Une bibliothèque unifiée pour l'inférence et le réglage fin de modèles de fondation tabulaires

TabTune: A Unified Library for Inference and Fine-Tuning Tabular Foundation Models

November 4, 2025
papers.authors: Aditya Tanna, Pratinav Seth, Mohamed Bouadi, Utsav Avaiya, Vinay Kumar Sankarapu
cs.AI

papers.abstract

Les modèles de fondation tabulaires constituent un paradigme émergent dans l'apprentissage de données structurées, étendant les avantages du pré-entraînement à grande échelle aux domaines tabulaires. Cependant, leur adoption reste limitée en raison de pipelines de prétraitement hétérogènes, d'API fragmentées, de procédures de fine-tuning incohérentes et de l'absence d'évaluation standardisée pour des métriques orientées déploiement comme l'étalonnage et l'équité. Nous présentons TabTune, une bibliothèque unifiée qui standardise le flux de travail complet pour les modèles de fondation tabulaires via une interface unique. TabTune offre un accès cohérent à sept modèles state-of-the-art supportant multiples stratégies d'adaptation, incluant l'inférence zero-shot, le méta-apprentissage, le fine-tuning supervisé (SFT) et le fine-tuning efficace en paramètres (PEFT). Le framework automatise le prétraitement adapté aux modèles, gère l'hétérogénéité architecturale en interne et intègre des modules d'évaluation pour les performances, l'étalonnage et l'équité. Conçu pour l'extensibilité et la reproductibilité, TabTune permet un benchmarking cohérent des stratégies d'adaptation des modèles de fondation tabulaires. La bibliothèque est open source et disponible à l'adresse https://github.com/Lexsi-Labs/TabTune.
English
Tabular foundation models represent a growing paradigm in structured data learning, extending the benefits of large-scale pretraining to tabular domains. However, their adoption remains limited due to heterogeneous preprocessing pipelines, fragmented APIs, inconsistent fine-tuning procedures, and the absence of standardized evaluation for deployment-oriented metrics such as calibration and fairness. We present TabTune, a unified library that standardizes the complete workflow for tabular foundation models through a single interface. TabTune provides consistent access to seven state-of-the-art models supporting multiple adaptation strategies, including zero-shot inference, meta-learning, supervised fine-tuning (SFT), and parameter-efficient fine-tuning (PEFT). The framework automates model-aware preprocessing, manages architectural heterogeneity internally, and integrates evaluation modules for performance, calibration, and fairness. Designed for extensibility and reproducibility, TabTune enables consistent benchmarking of adaptation strategies of tabular foundation models. The library is open source and available at https://github.com/Lexsi-Labs/TabTune .
PDF142December 1, 2025