ChatPaper.aiChatPaper

Table-GPT: GPT ajustado para tabelas em tarefas diversas

Table-GPT: Table-tuned GPT for Diverse Table Tasks

October 13, 2023
Autores: Peng Li, Yeye He, Dror Yashar, Weiwei Cui, Song Ge, Haidong Zhang, Danielle Rifinski Fainman, Dongmei Zhang, Surajit Chaudhuri
cs.AI

Resumo

Modelos de linguagem, como o GPT-3.5 e o ChatGPT, demonstram habilidades notáveis para seguir diversas instruções humanas e executar uma ampla gama de tarefas. No entanto, ao investigar modelos de linguagem usando uma variedade de tarefas básicas de compreensão de tabelas, observamos que os modelos de linguagem atuais ainda são subótimos em muitas tarefas relacionadas a tabelas, provavelmente porque são pré-treinados predominantemente em textos unidimensionais de linguagem natural, enquanto tabelas relacionais são objetos bidimensionais. Neste trabalho, propomos um novo paradigma de "ajuste de tabela" (table-tuning), no qual continuamos a treinar/ajustar modelos de linguagem como o GPT-3.5 e o ChatGPT, utilizando diversas tarefas de tabela sintetizadas a partir de tabelas reais como dados de treinamento, com o objetivo de aprimorar a capacidade dos modelos de linguagem de compreender tabelas e executar tarefas relacionadas a elas. Mostramos que nossos modelos Table-GPT resultantes demonstram (1) melhores capacidades de compreensão de tabelas, superando consistentemente o GPT-3.5 e o ChatGPT originais em uma ampla gama de tarefas de tabela, incluindo tarefas não vistas durante o treinamento, e (2) forte generalização, em sua capacidade de responder a diversas instruções humanas para executar novas tarefas de tabela, de maneira semelhante ao GPT-3.5 e ao ChatGPT.
English
Language models, such as GPT-3.5 and ChatGPT, demonstrate remarkable abilities to follow diverse human instructions and perform a wide range of tasks. However, when probing language models using a range of basic table-understanding tasks, we observe that today's language models are still sub-optimal in many table-related tasks, likely because they are pre-trained predominantly on one-dimensional natural-language texts, whereas relational tables are two-dimensional objects. In this work, we propose a new "table-tuning" paradigm, where we continue to train/fine-tune language models like GPT-3.5 and ChatGPT, using diverse table-tasks synthesized from real tables as training data, with the goal of enhancing language models' ability to understand tables and perform table tasks. We show that our resulting Table-GPT models demonstrate (1) better table-understanding capabilities, by consistently outperforming the vanilla GPT-3.5 and ChatGPT, on a wide-range of table tasks, including holdout unseen tasks, and (2) strong generalizability, in its ability to respond to diverse human instructions to perform new table-tasks, in a manner similar to GPT-3.5 and ChatGPT.
PDF4112December 14, 2025