ChatPaper.aiChatPaper

TabTune: Una Biblioteca Unificada para la Inferencia y el Ajuste Fino de Modelos Fundacionales Tabulares

TabTune: A Unified Library for Inference and Fine-Tuning Tabular Foundation Models

November 4, 2025
Autores: Aditya Tanna, Pratinav Seth, Mohamed Bouadi, Utsav Avaiya, Vinay Kumar Sankarapu
cs.AI

Resumen

Los modelos fundacionales tabulares representan un paradigma creciente en el aprendizaje de datos estructurados, extendiendo los beneficios del preentrenamiento a gran escala a los dominios tabulares. Sin embargo, su adopción sigue siendo limitada debido a pipelines de preprocesamiento heterogéneos, APIs fragmentadas, procedimientos de ajuste fino inconsistentes y la ausencia de una evaluación estandarizada para métricas orientadas al despliegue, como la calibración y la equidad. Presentamos TabTune, una librería unificada que estandariza el flujo de trabajo completo para modelos fundacionales tabulares a través de una única interfaz. TabTune proporciona acceso consistente a siete modelos de última generación que admiten múltiples estrategias de adaptación, incluyendo inferencia zero-shot, meta-aprendizaje, ajuste fino supervisado (SFT) y ajuste fino eficiente en parámetros (PEFT). El marco automatiza el preprocesamiento consciente del modelo, gestiona internamente la heterogeneidad arquitectónica e integra módulos de evaluación para rendimiento, calibración y equidad. Diseñado para extensibilidad y reproducibilidad, TabTune permite la evaluación comparativa consistente de las estrategias de adaptación de modelos fundacionales tabulares. La librería es de código abierto y está disponible en https://github.com/Lexsi-Labs/TabTune.
English
Tabular foundation models represent a growing paradigm in structured data learning, extending the benefits of large-scale pretraining to tabular domains. However, their adoption remains limited due to heterogeneous preprocessing pipelines, fragmented APIs, inconsistent fine-tuning procedures, and the absence of standardized evaluation for deployment-oriented metrics such as calibration and fairness. We present TabTune, a unified library that standardizes the complete workflow for tabular foundation models through a single interface. TabTune provides consistent access to seven state-of-the-art models supporting multiple adaptation strategies, including zero-shot inference, meta-learning, supervised fine-tuning (SFT), and parameter-efficient fine-tuning (PEFT). The framework automates model-aware preprocessing, manages architectural heterogeneity internally, and integrates evaluation modules for performance, calibration, and fairness. Designed for extensibility and reproducibility, TabTune enables consistent benchmarking of adaptation strategies of tabular foundation models. The library is open source and available at https://github.com/Lexsi-Labs/TabTune .
PDF142December 1, 2025