CGPT : Tables Partielles Guidées par Clusters avec Supervision Générée par LLM pour la Recherche de Tables
CGPT: Cluster-Guided Partial Tables with LLM-Generated Supervision for Table Retrieval
January 22, 2026
papers.authors: Tsung-Hsiang Chou, Chen-Jui Yu, Shui-Hsiang Hsu, Yao-Chung Fan
cs.AI
papers.abstract
Les modèles d'embedding généralistes ont démontré de solides performances en recherche de texte mais restent sous-optimaux pour la recherche de tableaux, où le contenu hautement structuré entraîne une compression sémantique et une inadéquation requête-tableau. Les méthodes récentes d'augmentation de la recherche basées sur les LLM atténuent ce problème en générant des requêtes synthétiques, mais elles reposent souvent sur une sélection heuristique de tableaux partiels et utilisent rarement ces requêtes synthétiques comme supervision pour améliorer le modèle d'embedding. Nous présentons CGPT, un cadre d'entraînement qui améliore la recherche de tableaux via une supervision générée par LLM. CGPT construit des tableaux partiels sémantiquement diversifiés en regroupant les instances de tableaux par K-means et en échantillonnant à travers les clusters pour élargir la couverture sémantique. Un LLM génère ensuite des requêtes synthétiques pour ces tableaux partiels, qui sont utilisées dans un fine-tuning contrastif avec négatifs difficiles pour affiner le modèle d'embedding. Les expériences sur quatre benchmarks publics (MimoTable, OTTQA, FetaQA et E2E-WTQ) montrent que CGPT surpasse constamment les modèles de référence, y compris QGpT, avec une amélioration moyenne de R@1 de 16,54 %. Dans un cadre de corpus multi-domaines unifié, CGPT démontre en outre une forte généralisation inter-domaines et reste efficace même avec des LLM plus petits pour la génération de requêtes synthétiques. Ces résultats indiquent que la construction de tableaux partiels guidée sémantiquement, combinée à un entraînement contrastif à partir d'une supervision générée par LLM, offre un paradigme efficace et évolutif pour la recherche de tableaux à grande échelle. Notre code est disponible à l'adresse https://github.com/yumeow0122/CGPT.
English
General-purpose embedding models have demonstrated strong performance in text retrieval but remain suboptimal for table retrieval, where highly structured content leads to semantic compression and query-table mismatch. Recent LLM-based retrieval augmentation methods mitigate this issue by generating synthetic queries, yet they often rely on heuristic partial-table selection and seldom leverage these synthetic queries as supervision to improve the embedding model. We introduce CGPT, a training framework that enhances table retrieval through LLM-generated supervision. CGPT constructs semantically diverse partial tables by clustering table instances using K-means and sampling across clusters to broaden semantic coverage. An LLM then generates synthetic queries for these partial tables, which are used in hard-negative contrastive fine-tuning to refine the embedding model. Experiments across four public benchmarks (MimoTable, OTTQA, FetaQA, and E2E-WTQ) show that CGPT consistently outperforms retrieval baselines, including QGpT, with an average R@1 improvement of 16.54 percent. In a unified multi-domain corpus setting, CGPT further demonstrates strong cross-domain generalization and remains effective even when using smaller LLMs for synthetic query generation. These results indicate that semantically guided partial-table construction, combined with contrastive training from LLM-generated supervision, provides an effective and scalable paradigm for large-scale table retrieval. Our code is available at https://github.com/yumeow0122/CGPT.