ChatPaper.aiChatPaper

Tabela-R1: Escalonamento no Tempo de Inferência para Raciocínio em Tabelas

Table-R1: Inference-Time Scaling for Table Reasoning

May 29, 2025
Autores: Zheyuan Yang, Lyuhao Chen, Arman Cohan, Yilun Zhao
cs.AI

Resumo

Neste trabalho, apresentamos o primeiro estudo a explorar o dimensionamento em tempo de inferência em tarefas de raciocínio sobre tabelas. Desenvolvemos e avaliamos duas estratégias de pós-treinamento para habilitar o dimensionamento em tempo de inferência: destilação a partir de traços de raciocínio de modelos de fronteira e aprendizado por reforço com recompensas verificáveis (RLVR). Para a destilação, introduzimos um conjunto de dados em larga escala de traços de raciocínio gerados pelo DeepSeek-R1, que utilizamos para ajustar finamente LLMs no modelo Table-R1-SFT. Para o RLVR, propomos funções de recompensa verificáveis específicas para a tarefa e aplicamos o algoritmo GRPO para obter o modelo Table-R1-Zero. Avaliamos nossos modelos da série Table-R1 em diversas tarefas de raciocínio sobre tabelas, incluindo QA de curta duração, verificação de fatos e QA de forma livre. Notavelmente, o modelo Table-R1-Zero iguala ou supera o desempenho do GPT-4.1 e do DeepSeek-R1, utilizando apenas um LLM de 7 bilhões de parâmetros. Ele também demonstra uma forte generalização para conjuntos de dados fora do domínio. Análises extensivas de ablação e qualitativas revelam os benefícios do ajuste de instruções, escolhas de arquitetura do modelo e generalização entre tarefas, bem como o surgimento de habilidades essenciais de raciocínio sobre tabelas durante o treinamento por reforço.
English
In this work, we present the first study to explore inference-time scaling on table reasoning tasks. We develop and evaluate two post-training strategies to enable inference-time scaling: distillation from frontier model reasoning traces and reinforcement learning with verifiable rewards (RLVR). For distillation, we introduce a large-scale dataset of reasoning traces generated by DeepSeek-R1, which we use to fine-tune LLMs into the Table-R1-SFT model. For RLVR, we propose task-specific verifiable reward functions and apply the GRPO algorithm to obtain the Table-R1-Zero model. We evaluate our Table-R1-series models across diverse table reasoning tasks, including short-form QA, fact verification, and free-form QA. Notably, the Table-R1-Zero model matches or exceeds the performance of GPT-4.1 and DeepSeek-R1, while using only a 7B-parameter LLM. It also demonstrates strong generalization to out-of-domain datasets. Extensive ablation and qualitative analyses reveal the benefits of instruction tuning, model architecture choices, and cross-task generalization, as well as emergence of essential table reasoning skills during RL training.
PDF932December 11, 2025