ChatPaper.aiChatPaper

TabTune: una libreria unificata per l'inferenza e il fine-tuning di modelli di fondazione tabulari

TabTune: A Unified Library for Inference and Fine-Tuning Tabular Foundation Models

November 4, 2025
Autori: Aditya Tanna, Pratinav Seth, Mohamed Bouadi, Utsav Avaiya, Vinay Kumar Sankarapu
cs.AI

Abstract

I modelli fondazionali tabulari rappresentano un paradigma emergente nell'apprendimento di dati strutturati, estendendo i vantaggi del pre-addestramento su larga scala ai domini tabulari. Tuttavia, la loro adozione rimane limitata a causa di pipeline di pre-elaborazione eterogenee, API frammentate, procedure di fine-tuning inconsistenti e l'assenza di una valutazione standardizzata per metriche orientate al deployment, come la calibrazione e l'equità. Presentiamo TabTune, una libreria unificata che standardizza il flusso di lavoro completo per i modelli fondazionali tabulari attraverso una singola interfaccia. TabTune fornisce un accesso coerente a sette modelli all'avanguardia che supportano multiple strategie di adattamento, incluse l'inferenza zero-shot, il meta-apprendimento, il fine-tuning supervisionato (SFT) e il fine-tuning efficiente dei parametri (PEFT). Il framework automatizza la pre-elaborazione consapevole del modello, gestisce internamente l'eterogeneità architetturale e integra moduli di valutazione per prestazioni, calibrazione ed equità. Progettato per l'estensibilità e la riproducibilità, TabTune consente un benchmarking coerente delle strategie di adattamento dei modelli fondazionali tabulari. La libreria è open source e disponibile all'indirizzo https://github.com/Lexsi-Labs/TabTune.
English
Tabular foundation models represent a growing paradigm in structured data learning, extending the benefits of large-scale pretraining to tabular domains. However, their adoption remains limited due to heterogeneous preprocessing pipelines, fragmented APIs, inconsistent fine-tuning procedures, and the absence of standardized evaluation for deployment-oriented metrics such as calibration and fairness. We present TabTune, a unified library that standardizes the complete workflow for tabular foundation models through a single interface. TabTune provides consistent access to seven state-of-the-art models supporting multiple adaptation strategies, including zero-shot inference, meta-learning, supervised fine-tuning (SFT), and parameter-efficient fine-tuning (PEFT). The framework automates model-aware preprocessing, manages architectural heterogeneity internally, and integrates evaluation modules for performance, calibration, and fairness. Designed for extensibility and reproducibility, TabTune enables consistent benchmarking of adaptation strategies of tabular foundation models. The library is open source and available at https://github.com/Lexsi-Labs/TabTune .
PDF142December 1, 2025