TabTune: Una Biblioteca Unificada para la Inferencia y el Ajuste Fino de Modelos Fundacionales Tabulares
TabTune: A Unified Library for Inference and Fine-Tuning Tabular Foundation Models
November 4, 2025
Autores: Aditya Tanna, Pratinav Seth, Mohamed Bouadi, Utsav Avaiya, Vinay Kumar Sankarapu
cs.AI
Resumen
Los modelos fundacionales tabulares representan un paradigma creciente en el aprendizaje de datos estructurados, extendiendo los beneficios del preentrenamiento a gran escala a los dominios tabulares. Sin embargo, su adopción sigue siendo limitada debido a pipelines de preprocesamiento heterogéneos, APIs fragmentadas, procedimientos de ajuste fino inconsistentes y la ausencia de una evaluación estandarizada para métricas orientadas al despliegue, como la calibración y la equidad. Presentamos TabTune, una librería unificada que estandariza el flujo de trabajo completo para modelos fundacionales tabulares a través de una única interfaz. TabTune proporciona acceso consistente a siete modelos de última generación que admiten múltiples estrategias de adaptación, incluyendo inferencia zero-shot, meta-aprendizaje, ajuste fino supervisado (SFT) y ajuste fino eficiente en parámetros (PEFT). El marco automatiza el preprocesamiento consciente del modelo, gestiona internamente la heterogeneidad arquitectónica e integra módulos de evaluación para rendimiento, calibración y equidad. Diseñado para extensibilidad y reproducibilidad, TabTune permite la evaluación comparativa consistente de las estrategias de adaptación de modelos fundacionales tabulares. La librería es de código abierto y está disponible en https://github.com/Lexsi-Labs/TabTune.
English
Tabular foundation models represent a growing paradigm in structured data
learning, extending the benefits of large-scale pretraining to tabular domains.
However, their adoption remains limited due to heterogeneous preprocessing
pipelines, fragmented APIs, inconsistent fine-tuning procedures, and the
absence of standardized evaluation for deployment-oriented metrics such as
calibration and fairness. We present TabTune, a unified library that
standardizes the complete workflow for tabular foundation models through a
single interface. TabTune provides consistent access to seven state-of-the-art
models supporting multiple adaptation strategies, including zero-shot
inference, meta-learning, supervised fine-tuning (SFT), and parameter-efficient
fine-tuning (PEFT). The framework automates model-aware preprocessing, manages
architectural heterogeneity internally, and integrates evaluation modules for
performance, calibration, and fairness. Designed for extensibility and
reproducibility, TabTune enables consistent benchmarking of adaptation
strategies of tabular foundation models. The library is open source and
available at https://github.com/Lexsi-Labs/TabTune .