ChatPaper.aiChatPaper

TabTune: Een Uniforme Bibliotheek voor Inferentie en Fine-Tuning van Stichtingsmodellen voor Tabelgegevens

TabTune: A Unified Library for Inference and Fine-Tuning Tabular Foundation Models

November 4, 2025
Auteurs: Aditya Tanna, Pratinav Seth, Mohamed Bouadi, Utsav Avaiya, Vinay Kumar Sankarapu
cs.AI

Samenvatting

Tabellaire foundation-modellen vormen een groeiend paradigma in het leren van gestructureerde gegevens, waarbij de voordelen van grootschalige voorafgaande training worden uitgebreid naar tabellaire domeinen. Hun adoptie blijft echter beperkt door heterogene preprocessing-pipelines, gefragmenteerde API's, inconsistente fine-tuning procedures en het ontbreken van gestandaardiseerde evaluatie voor implementatiegerichte metrieken zoals calibratie en eerlijkheid. Wij presenteren TabTune, een uniforme bibliotheek die de complete workflow voor tabellaire foundation-modellen standaardiseert via een enkele interface. TabTune biedt consistente toegang tot zeven state-of-the-art modellen die meerdere aanpassingsstrategieën ondersteunen, waaronder zero-shot inferentie, meta-learning, supervised fine-tuning (SFT) en parameter-efficiënte fine-tuning (PEFT). Het framework automatiseert modelbewuste preprocessing, beheert architecturale heterogeniteit intern en integreert evaluatiemodules voor prestaties, calibratie en eerlijkheid. Ontworpen voor uitbreidbaarheid en reproduceerbaarheid, stelt TabTune consistente benchmarking van aanpassingsstrategieën voor tabellaire foundation-modellen in staat. De bibliotheek is open source en beschikbaar op https://github.com/Lexsi-Labs/TabTune.
English
Tabular foundation models represent a growing paradigm in structured data learning, extending the benefits of large-scale pretraining to tabular domains. However, their adoption remains limited due to heterogeneous preprocessing pipelines, fragmented APIs, inconsistent fine-tuning procedures, and the absence of standardized evaluation for deployment-oriented metrics such as calibration and fairness. We present TabTune, a unified library that standardizes the complete workflow for tabular foundation models through a single interface. TabTune provides consistent access to seven state-of-the-art models supporting multiple adaptation strategies, including zero-shot inference, meta-learning, supervised fine-tuning (SFT), and parameter-efficient fine-tuning (PEFT). The framework automates model-aware preprocessing, manages architectural heterogeneity internally, and integrates evaluation modules for performance, calibration, and fairness. Designed for extensibility and reproducibility, TabTune enables consistent benchmarking of adaptation strategies of tabular foundation models. The library is open source and available at https://github.com/Lexsi-Labs/TabTune .
PDF142December 1, 2025