ChatPaper.aiChatPaper

RecTable: Быстрое моделирование табличных данных с использованием исправленного потока

RecTable: Fast Modeling Tabular Data with Rectified Flow

March 26, 2025
Авторы: Masane Fuchi, Tomohiro Takagi
cs.AI

Аннотация

Модели, основанные на оценках (score-based) или диффузии, генерируют высококачественные табличные данные, превосходя модели на основе GAN и VAE. Однако эти методы требуют значительного времени для обучения. В данной статье мы представляем RecTable, который использует моделирование с помощью исправленного потока (rectified flow), применяемого, например, в задачах генерации изображений из текста и видео из текста. RecTable отличается простой архитектурой, состоящей из нескольких блоков с гейтированными линейными слоями (gated linear unit). Кроме того, наши стратегии обучения также просты и включают смешанное распределение шума и логит-нормальное распределение временных шагов. Наши эксперименты показывают, что RecTable демонстрирует конкурентоспособные результаты по сравнению с несколькими современными моделями на основе диффузии и оценок, при этом сокращая необходимое время обучения. Наш код доступен по адресу https://github.com/fmp453/rectable.
English
Score-based or diffusion models generate high-quality tabular data, surpassing GAN-based and VAE-based models. However, these methods require substantial training time. In this paper, we introduce RecTable, which uses the rectified flow modeling, applied in such as text-to-image generation and text-to-video generation. RecTable features a simple architecture consisting of a few stacked gated linear unit blocks. Additionally, our training strategies are also simple, incorporating a mixed-type noise distribution and a logit-normal timestep distribution. Our experiments demonstrate that RecTable achieves competitive performance compared to the several state-of-the-art diffusion and score-based models while reducing the required training time. Our code is available at https://github.com/fmp453/rectable.

Summary

AI-Generated Summary

PDF22March 27, 2025