TabTune: Uma Biblioteca Unificada para Inferência e Ajuste Fino de Modelos de Fundamento em Dados Tabulares
TabTune: A Unified Library for Inference and Fine-Tuning Tabular Foundation Models
November 4, 2025
Autores: Aditya Tanna, Pratinav Seth, Mohamed Bouadi, Utsav Avaiya, Vinay Kumar Sankarapu
cs.AI
Resumo
Os modelos de fundação tabulares representam um paradigma crescente na aprendizagem de dados estruturados, estendendo os benefícios do pré-treinamento em larga escala para domínios tabulares. No entanto, sua adoção permanece limitada devido a pipelines de pré-processamento heterogêneos, APIs fragmentadas, procedimentos de ajuste fino inconsistentes e a ausência de avaliação padronizada para métricas orientadas à implantação, como calibração e justiça. Apresentamos o TabTune, uma biblioteca unificada que padroniza o fluxo de trabalho completo para modelos de fundação tabulares por meio de uma única interface. O TabTune fornece acesso consistente a sete modelos state-of-the-art que suportam múltiplas estratégias de adaptação, incluindo inferência zero-shot, meta-aprendizagem, ajuste fino supervisionado (SFT) e ajuste fino eficiente em parâmetros (PEFT). A estrutura automatiza o pré-processamento consciente do modelo, gerencia internamente a heterogeneidade arquitetônica e integra módulos de avaliação para desempenho, calibração e justiça. Projetado para extensibilidade e reprodutibilidade, o TabTune permite a comparação consistente de estratégias de adaptação de modelos de fundação tabulares. A biblioteca é de código aberto e está disponível em https://github.com/Lexsi-Labs/TabTune.
English
Tabular foundation models represent a growing paradigm in structured data
learning, extending the benefits of large-scale pretraining to tabular domains.
However, their adoption remains limited due to heterogeneous preprocessing
pipelines, fragmented APIs, inconsistent fine-tuning procedures, and the
absence of standardized evaluation for deployment-oriented metrics such as
calibration and fairness. We present TabTune, a unified library that
standardizes the complete workflow for tabular foundation models through a
single interface. TabTune provides consistent access to seven state-of-the-art
models supporting multiple adaptation strategies, including zero-shot
inference, meta-learning, supervised fine-tuning (SFT), and parameter-efficient
fine-tuning (PEFT). The framework automates model-aware preprocessing, manages
architectural heterogeneity internally, and integrates evaluation modules for
performance, calibration, and fairness. Designed for extensibility and
reproducibility, TabTune enables consistent benchmarking of adaptation
strategies of tabular foundation models. The library is open source and
available at https://github.com/Lexsi-Labs/TabTune .