TabDSR: Ontleden, Opschonen en Redeneren voor Complexe Numerieke Beredenering in Tabelgegevens
TabDSR: Decompose, Sanitize, and Reason for Complex Numerical Reasoning in Tabular Data
November 4, 2025
Auteurs: Changjiang Jiang, Fengchang Yu, Haihua Chen, Wei Lu, Jin Zeng
cs.AI
Samenvatting
Complex redeneren over tabelgegevens is cruciaal in real-world data-analyse, maar grote taalmmodellen (LLM's) presteren vaak ondermaats vanwege complexe queries, rumoerige data en beperkte numerieke capaciteiten. Om deze problemen aan te pakken, stellen we \method voor, een framework bestaande uit: (1) een query-ontbinder die complexe vragen afbreekt, (2) een tabelzuiveraar die rumoerige tabellen reinigt en filtert, en (3) een op Program-of-Thoughts (PoT) gebaseerde redenaar die uitvoerbare code genereert om het uiteindelijke antwoord uit de gezuiverde tabel af te leiden. Om een onbevooroordeelde evaluatie te waarborgen en datalekken te mitigeren, introduceren we een nieuwe dataset, CalTab151, die specifiek is ontworpen voor complexe numerieke redenering over tabellen. Experimentele resultaten tonen aan dat \method consequent bestaande methoden overtreft, met state-of-the-art (SOTA) prestaties en een nauwkeurigheidsverbetering van 8,79%, 6,08% en 19,87% op respectievelijk TAT-QA, TableBench en \method. Bovendien integreert ons framework naadloos met mainstream LLM's en biedt het een robuuste oplossing voor complexe numerieke tabulaire redenering. Deze bevindingen benadrukken de effectiviteit van ons framework bij het verbeteren van de LLM-prestaties voor complexe numerieke tabulaire redenering. Data en code zijn op aanvraag beschikbaar.
English
Complex reasoning over tabular data is crucial in real-world data analysis,
yet large language models (LLMs) often underperform due to complex queries,
noisy data, and limited numerical capabilities. To address these issues, we
propose \method, a framework consisting of: (1) a query decomposer that breaks
down complex questions, (2) a table sanitizer that cleans and filters noisy
tables, and (3) a program-of-thoughts (PoT)-based reasoner that generates
executable code to derive the final answer from the sanitized table. To ensure
unbiased evaluation and mitigate data leakage, we introduce a new dataset,
CalTab151, specifically designed for complex numerical reasoning over tables.
Experimental results demonstrate that \method consistently outperforms existing
methods, achieving state-of-the-art (SOTA) performance with 8.79%, 6.08%, and
19.87% accuracy improvement on TAT-QA, TableBench, and \method, respectively.
Moreover, our framework integrates seamlessly with mainstream LLMs, providing a
robust solution for complex tabular numerical reasoning. These findings
highlight the effectiveness of our framework in enhancing LLM performance for
complex tabular numerical reasoning. Data and code are available upon request.