ChatPaper.aiChatPaper

TabTune: Eine einheitliche Bibliothek für Inferenz und Feinabstimmung tabellarischer Foundation Models

TabTune: A Unified Library for Inference and Fine-Tuning Tabular Foundation Models

November 4, 2025
papers.authors: Aditya Tanna, Pratinav Seth, Mohamed Bouadi, Utsav Avaiya, Vinay Kumar Sankarapu
cs.AI

papers.abstract

Tabular Foundation Models stellen ein wachsendes Paradigma im maschinellen Lernen mit strukturierten Daten dar, das die Vorteile groß angelegten Vorabtrainings auf tabellarische Domänen ausdehnt. Ihre Verbreitung bleibt jedoch aufgrund heterogener Vorverarbeitungspipelines, fragmentierter APIs, inkonsistenter Feinabstimmungsverfahren und des Fehlens standardisierter Evaluierung für deploymentspezifische Metriken wie Kalibrierung und Fairness eingeschränkt. Wir stellen TabTune vor, eine vereinheitlichte Bibliothek, die den kompletten Arbeitsablauf für tabellarische Foundation Models über eine einzige Schnittstelle standardisiert. TabTune bietet konsistenten Zugriff auf sieben state-of-the-art Modelle, die mehrere Anpassungsstrategien unterstützen, darunter Zero-Shot-Inferenz, Meta-Learning, überwachte Feinabstimmung (SFT) und parameter-effiziente Feinabstimmung (PEFT). Das Framework automatisiert die modellbewusste Vorverarbeitung, verwaltet architektonische Heterogenität intern und integriert Evaluierungsmodule für Leistung, Kalibrierung und Fairness. TabTune wurde für Erweiterbarkeit und Reproduzierbarkeit konzipiert und ermöglicht ein konsistentes Benchmarking von Anpassungsstrategien tabellarischer Foundation Models. Die Bibliothek ist quelloffen und verfügbar unter https://github.com/Lexsi-Labs/TabTune.
English
Tabular foundation models represent a growing paradigm in structured data learning, extending the benefits of large-scale pretraining to tabular domains. However, their adoption remains limited due to heterogeneous preprocessing pipelines, fragmented APIs, inconsistent fine-tuning procedures, and the absence of standardized evaluation for deployment-oriented metrics such as calibration and fairness. We present TabTune, a unified library that standardizes the complete workflow for tabular foundation models through a single interface. TabTune provides consistent access to seven state-of-the-art models supporting multiple adaptation strategies, including zero-shot inference, meta-learning, supervised fine-tuning (SFT), and parameter-efficient fine-tuning (PEFT). The framework automates model-aware preprocessing, manages architectural heterogeneity internally, and integrates evaluation modules for performance, calibration, and fairness. Designed for extensibility and reproducibility, TabTune enables consistent benchmarking of adaptation strategies of tabular foundation models. The library is open source and available at https://github.com/Lexsi-Labs/TabTune .
PDF142December 1, 2025