ChatPaper.aiChatPaper

Melhorando a Robustez da Recuperação Tabular por meio da Estabilidade Representacional

Improving Robustness of Tabular Retrieval via Representational Stability

April 27, 2026
Autores: Kushal Raj Bhandari, Adarsh Singh, Jianxi Gao, Soham Dan, Vivek Gupta
cs.AI

Resumo

Os sistemas de recuperação de tabelas baseados em Transformers aplanam tabelas estruturadas em sequências de tokens, tornando a recuperação sensível à escolha da serialização, mesmo quando a semântica da tabela permanece inalterada. Demonstramos que serializações semanticamente equivalentes, como CSV, TSV, HTML, Markdown e DDL, podem produzir *embeddings* e resultados de recuperação substancialmente diferentes em múltiplos *benchmarks* e famílias de recuperadores. Para abordar esta instabilidade, tratamos o *embedding* de serialização como vistas ruidosas de um sinal semântico partilhado e usamos o seu centróide como uma representação alvo canónica. Mostramos que a média do centróide suprime a variação específica do formato e pode recuperar o conteúdo semântico comum a diferentes serializações quando as mudanças induzidas pelo formato diferem entre tabelas. Empiricamente, as representações de centróide superam formatos individuais em comparações pareadas agregadas em MPNet, BGE-M3, ReasonIR e SPLADE. Introduzimos ainda um adaptador de estrangulamento residual leve sobre um codificador congelado que mapeia *embeddings* de serialização única para alvos de centróide, preservando a variância e aplicando regularização de covariância. O adaptador melhora a robustez para vários recuperadores densos, embora os ganhos sejam dependentes do modelo e mais fracos para a recuperação léxica esparsa. Estes resultados identificam a sensibilidade à serialização como uma fonte major de variância na recuperação e mostram o potencial da correção geométrica *post hoc* para a recuperação de tabelas invariante à serialização. O nosso código, conjuntos de dados e modelos estão disponíveis em https://github.com/KBhandari11/Centroid-Aligned-Table-Retrieval.
English
Transformer-based table retrieval systems flatten structured tables into token sequences, making retrieval sensitive to the choice of serialization even when table semantics remain unchanged. We show that semantically equivalent serializations, such as csv, tsv, html, markdown, and ddl, can produce substantially different embeddings and retrieval results across multiple benchmarks and retriever families. To address this instability, we treat serialization embedding as noisy views of a shared semantic signal and use its centroid as a canonical target representation. We show that centroid averaging suppresses format-specific variation and can recover the semantic content common to different serializations when format-induced shifts differ across tables. Empirically, centroid representations outrank individual formats in aggregate pairwise comparisons across MPNet, BGE-M3, ReasonIR, and SPLADE. We further introduce a lightweight residual bottleneck adapter on top of a frozen encoder that maps single-serialization embeddings towards centroid targets while preserving variance and enforcing covariance regularization. The adapter improves robustness for several dense retrievers, though gains are model-dependent and weaker for sparse lexical retrieval. These results identify serialization sensitivity as a major source of retrieval variance and show the promise of post hoc geometric correction for serialization-invariant table retrieval. Our code, datasets, and models are available at https://github.com/KBhandari11/Centroid-Aligned-Table-Retrieval{https://github.com/KBhandari11/Centroid-Aligned-Table-Retrieval}.
PDF11April 29, 2026