TabTune: Eine einheitliche Bibliothek für Inferenz und Feinabstimmung tabellarischer Foundation Models
TabTune: A Unified Library for Inference and Fine-Tuning Tabular Foundation Models
November 4, 2025
papers.authors: Aditya Tanna, Pratinav Seth, Mohamed Bouadi, Utsav Avaiya, Vinay Kumar Sankarapu
cs.AI
papers.abstract
Tabular Foundation Models stellen ein wachsendes Paradigma im maschinellen Lernen mit strukturierten Daten dar, das die Vorteile groß angelegten Vorabtrainings auf tabellarische Domänen ausdehnt. Ihre Verbreitung bleibt jedoch aufgrund heterogener Vorverarbeitungspipelines, fragmentierter APIs, inkonsistenter Feinabstimmungsverfahren und des Fehlens standardisierter Evaluierung für deploymentspezifische Metriken wie Kalibrierung und Fairness eingeschränkt. Wir stellen TabTune vor, eine vereinheitlichte Bibliothek, die den kompletten Arbeitsablauf für tabellarische Foundation Models über eine einzige Schnittstelle standardisiert. TabTune bietet konsistenten Zugriff auf sieben state-of-the-art Modelle, die mehrere Anpassungsstrategien unterstützen, darunter Zero-Shot-Inferenz, Meta-Learning, überwachte Feinabstimmung (SFT) und parameter-effiziente Feinabstimmung (PEFT). Das Framework automatisiert die modellbewusste Vorverarbeitung, verwaltet architektonische Heterogenität intern und integriert Evaluierungsmodule für Leistung, Kalibrierung und Fairness. TabTune wurde für Erweiterbarkeit und Reproduzierbarkeit konzipiert und ermöglicht ein konsistentes Benchmarking von Anpassungsstrategien tabellarischer Foundation Models. Die Bibliothek ist quelloffen und verfügbar unter https://github.com/Lexsi-Labs/TabTune.
English
Tabular foundation models represent a growing paradigm in structured data
learning, extending the benefits of large-scale pretraining to tabular domains.
However, their adoption remains limited due to heterogeneous preprocessing
pipelines, fragmented APIs, inconsistent fine-tuning procedures, and the
absence of standardized evaluation for deployment-oriented metrics such as
calibration and fairness. We present TabTune, a unified library that
standardizes the complete workflow for tabular foundation models through a
single interface. TabTune provides consistent access to seven state-of-the-art
models supporting multiple adaptation strategies, including zero-shot
inference, meta-learning, supervised fine-tuning (SFT), and parameter-efficient
fine-tuning (PEFT). The framework automates model-aware preprocessing, manages
architectural heterogeneity internally, and integrates evaluation modules for
performance, calibration, and fairness. Designed for extensibility and
reproducibility, TabTune enables consistent benchmarking of adaptation
strategies of tabular foundation models. The library is open source and
available at https://github.com/Lexsi-Labs/TabTune .