CGPT: Clustergestuurde Gedeeltelijke Tabellen met door LLM gegenereerd Toezicht voor Tabelretrieval
CGPT: Cluster-Guided Partial Tables with LLM-Generated Supervision for Table Retrieval
January 22, 2026
Auteurs: Tsung-Hsiang Chou, Chen-Jui Yu, Shui-Hsiang Hsu, Yao-Chung Fan
cs.AI
Samenvatting
Algemene inbeddingsmodellen hebben sterke prestaties getoond bij tekstretrieval, maar blijven suboptimaal voor tabelleretrieval, waar sterk gestructureerde inhoud leidt tot semantische compressie en query-tabel-mismatch. Recente op LLM gebaseerde retrieval-augmentatiemethoden verminderen dit probleem door synthetische queries te genereren, maar ze vertrouwen vaak op heuristische selectie van gedeeltelijke tabellen en benutten deze synthetische queries zelden als supervisie om het inbeddingsmodel te verbeteren. Wij introduceren CGPT, een trainingsraamwerk dat tabelleretrieval verbetert door middel van LLM-gegenereerde supervisie. CGPT construeert semantisch diverse gedeeltelijke tabellen door tabelinstanties te clusteren met K-means en te steekproeven over clusters om de semantische dekking te verbreden. Een LLM genereert vervolgens synthetische queries voor deze gedeeltelijke tabellen, die worden gebruikt in hard-negative contrastieve fine-tuning om het inbeddingsmodel te verfijnen. Experimenten op vier publieke benchmarks (MimoTable, OTTQA, FetaQA en E2E-WTQ) tonen aan dat CGPT consistent retrieval-baselines overtreft, inclusief QGpT, met een gemiddelde R@1-verbetering van 16,54 procent. In een uniforme multi-domein corpus-setting toont CGPT verder sterke cross-domein generalisatie en blijft het effectief, zelfs wanneer kleinere LLM's worden gebruikt voor synthetische querygeneratie. Deze resultaten geven aan dat semantisch geleide constructie van gedeeltelijke tabellen, gecombineerd met contrastieve training vanuit LLM-gegenereerde supervisie, een effectief en schaalbaar paradigma biedt voor grootschalige tabelleretrieval. Onze code is beschikbaar op https://github.com/yumeow0122/CGPT.
English
General-purpose embedding models have demonstrated strong performance in text retrieval but remain suboptimal for table retrieval, where highly structured content leads to semantic compression and query-table mismatch. Recent LLM-based retrieval augmentation methods mitigate this issue by generating synthetic queries, yet they often rely on heuristic partial-table selection and seldom leverage these synthetic queries as supervision to improve the embedding model. We introduce CGPT, a training framework that enhances table retrieval through LLM-generated supervision. CGPT constructs semantically diverse partial tables by clustering table instances using K-means and sampling across clusters to broaden semantic coverage. An LLM then generates synthetic queries for these partial tables, which are used in hard-negative contrastive fine-tuning to refine the embedding model. Experiments across four public benchmarks (MimoTable, OTTQA, FetaQA, and E2E-WTQ) show that CGPT consistently outperforms retrieval baselines, including QGpT, with an average R@1 improvement of 16.54 percent. In a unified multi-domain corpus setting, CGPT further demonstrates strong cross-domain generalization and remains effective even when using smaller LLMs for synthetic query generation. These results indicate that semantically guided partial-table construction, combined with contrastive training from LLM-generated supervision, provides an effective and scalable paradigm for large-scale table retrieval. Our code is available at https://github.com/yumeow0122/CGPT.