TabTune: 테이블 형식 파운데이션 모델 추론 및 미세 조정을 위한 통합 라이브러리
TabTune: A Unified Library for Inference and Fine-Tuning Tabular Foundation Models
November 4, 2025
저자: Aditya Tanna, Pratinav Seth, Mohamed Bouadi, Utsav Avaiya, Vinay Kumar Sankarapu
cs.AI
초록
표형 기초 모델은 대규모 사전 학습의 이점을 표형 데이터 영역까지 확장하여 구조화된 데이터 학습의 새로운 패러다임으로 부상하고 있습니다. 그러나 이종 전처리 파이프라인, 분산된 API, 일관성 없는 미세 조정 절차, 그리고 캘리브레이션 및 공정성과 같은 실제 배포 지표에 대한 표준화된 평가 체계의 부재로 인해 그 도입은 여전히 제한적입니다. 본 연구는 단일 인터페이스를 통해 표형 기초 모델의 완전한 워크플로우를 표준화하는 통합 라이브러리인 TabTune을 제안합니다. TabTune은 제로샷 추론, 메타러닝, 지도 미세 조정(SFT), 매개변수 효율적 미세 조정(PEFT) 등 다양한 적응 전략을 지원하는 7개의 최신 모델에 대한 일관된 접근을 제공합니다. 이 프레임워크는 모델 인식 전처리를 자동화하고, 내부적으로 아키텍처 이질성을 관리하며, 성능, 캘리브레이션, 공정성 평가 모듈을 통합합니다. 확장성과 재현성을 고려하여 설계된 TabTune은 표형 기초 모델의 적응 전략에 대한 일관된 벤치마킹을 가능하게 합니다. 해당 라이브러리는 오픈 소스이며 https://github.com/Lexsi-Labs/TabTune 에서 이용할 수 있습니다.
English
Tabular foundation models represent a growing paradigm in structured data
learning, extending the benefits of large-scale pretraining to tabular domains.
However, their adoption remains limited due to heterogeneous preprocessing
pipelines, fragmented APIs, inconsistent fine-tuning procedures, and the
absence of standardized evaluation for deployment-oriented metrics such as
calibration and fairness. We present TabTune, a unified library that
standardizes the complete workflow for tabular foundation models through a
single interface. TabTune provides consistent access to seven state-of-the-art
models supporting multiple adaptation strategies, including zero-shot
inference, meta-learning, supervised fine-tuning (SFT), and parameter-efficient
fine-tuning (PEFT). The framework automates model-aware preprocessing, manages
architectural heterogeneity internally, and integrates evaluation modules for
performance, calibration, and fairness. Designed for extensibility and
reproducibility, TabTune enables consistent benchmarking of adaptation
strategies of tabular foundation models. The library is open source and
available at https://github.com/Lexsi-Labs/TabTune .