ChatPaper.aiChatPaper

TabTune: Унифицированная библиотека для вывода и тонкой настройки табличных фундаментальных моделей

TabTune: A Unified Library for Inference and Fine-Tuning Tabular Foundation Models

November 4, 2025
Авторы: Aditya Tanna, Pratinav Seth, Mohamed Bouadi, Utsav Avaiya, Vinay Kumar Sankarapu
cs.AI

Аннотация

Табличные фундаментальные модели представляют собой растущую парадигму в области обучения на структурированных данных, распространяя преимущества крупномасштабного предварительного обучения на табличные домены. Однако их внедрение остается ограниченным из-за неоднородных конвейеров предобработки, фрагментированных API, несогласованных процедур тонкой настройки и отсутствия стандартизированной оценки метрик, ориентированных на развертывание, таких как калибровка и справедливость. Мы представляем TabTune — унифицированную библиотеку, которая стандартизирует полный рабочий процесс для табличных фундаментальных моделей через единый интерфейс. TabTune обеспечивает согласованный доступ к семи современным моделям, поддерживающим множество стратегий адаптации, включая вывод без дообучения (zero-shot), мета-обучение, контролируемую тонкую настройку (SFT) и параметрически-эффективную тонкую настройку (PEFT). Фреймворк автоматизирует учитывающую модель предобработку, внутренне управляет архитектурной гетерогенностью и интегрирует модули оценки производительности, калибровки и справедливости. Разработанный для расширяемости и воспроизводимости, TabTune позволяет проводить согласованное сравнительное тестирование стратегий адаптации табличных фундаментальных моделей. Библиотека имеет открытый исходный код и доступна по адресу https://github.com/Lexsi-Labs/TabTune.
English
Tabular foundation models represent a growing paradigm in structured data learning, extending the benefits of large-scale pretraining to tabular domains. However, their adoption remains limited due to heterogeneous preprocessing pipelines, fragmented APIs, inconsistent fine-tuning procedures, and the absence of standardized evaluation for deployment-oriented metrics such as calibration and fairness. We present TabTune, a unified library that standardizes the complete workflow for tabular foundation models through a single interface. TabTune provides consistent access to seven state-of-the-art models supporting multiple adaptation strategies, including zero-shot inference, meta-learning, supervised fine-tuning (SFT), and parameter-efficient fine-tuning (PEFT). The framework automates model-aware preprocessing, manages architectural heterogeneity internally, and integrates evaluation modules for performance, calibration, and fairness. Designed for extensibility and reproducibility, TabTune enables consistent benchmarking of adaptation strategies of tabular foundation models. The library is open source and available at https://github.com/Lexsi-Labs/TabTune .
PDF142December 1, 2025