ChatPaper.aiChatPaper

Chain-of-Table: Evolução de Tabelas na Cadeia de Raciocínio para Compreensão de Tabelas

Chain-of-Table: Evolving Tables in the Reasoning Chain for Table Understanding

January 9, 2024
Autores: Zilong Wang, Hao Zhang, Chun-Liang Li, Julian Martin Eisenschlos, Vincent Perot, Zifeng Wang, Lesly Miculicich, Yasuhisa Fujii, Jingbo Shang, Chen-Yu Lee, Tomas Pfister
cs.AI

Resumo

A raciocínio baseado em tabelas com modelos de linguagem de grande escala (LLMs) é uma direção promissora para abordar diversas tarefas de compreensão de tabelas, como resposta a perguntas baseadas em tabelas e verificação de fatos. Em comparação com o raciocínio genérico, o raciocínio baseado em tabelas requer a extração de semânticas subjacentes tanto de perguntas em formato livre quanto de dados tabulares semiestruturados. A abordagem Chain-of-Thought e suas variações incorporam a cadeia de raciocínio na forma de contexto textual, mas ainda é uma questão em aberto como aproveitar efetivamente os dados tabulares na cadeia de raciocínio. Propomos o framework Chain-of-Table, onde os dados tabulares são explicitamente utilizados na cadeia de raciocínio como um proxy para pensamentos intermediários. Especificamente, orientamos os LLMs usando aprendizado em contexto para gerar iterativamente operações e atualizar a tabela, representando assim uma cadeia de raciocínio tabular. Os LLMs podem, portanto, planejar dinamicamente a próxima operação com base nos resultados das anteriores. Essa evolução contínua da tabela forma uma cadeia, mostrando o processo de raciocínio para um problema tabular específico. A cadeia carrega informações estruturadas dos resultados intermediários, permitindo previsões mais precisas e confiáveis. O Chain-of-Table alcança novos recordes de desempenho de última geração nos benchmarks WikiTQ, FeTaQA e TabFact em múltiplas escolhas de LLMs.
English
Table-based reasoning with large language models (LLMs) is a promising direction to tackle many table understanding tasks, such as table-based question answering and fact verification. Compared with generic reasoning, table-based reasoning requires the extraction of underlying semantics from both free-form questions and semi-structured tabular data. Chain-of-Thought and its similar approaches incorporate the reasoning chain in the form of textual context, but it is still an open question how to effectively leverage tabular data in the reasoning chain. We propose the Chain-of-Table framework, where tabular data is explicitly used in the reasoning chain as a proxy for intermediate thoughts. Specifically, we guide LLMs using in-context learning to iteratively generate operations and update the table to represent a tabular reasoning chain. LLMs can therefore dynamically plan the next operation based on the results of the previous ones. This continuous evolution of the table forms a chain, showing the reasoning process for a given tabular problem. The chain carries structured information of the intermediate results, enabling more accurate and reliable predictions. Chain-of-Table achieves new state-of-the-art performance on WikiTQ, FeTaQA, and TabFact benchmarks across multiple LLM choices.
PDF250December 15, 2024