SHARE: Ein hierarchischer Aktionskorrekturassistent für Text-zu-SQL basierend auf SLM
SHARE: An SLM-based Hierarchical Action CorREction Assistant for Text-to-SQL
May 31, 2025
Autoren: Ge Qu, Jinyang Li, Bowen Qin, Xiaolong Li, Nan Huo, Chenhao Ma, Reynold Cheng
cs.AI
Zusammenfassung
Aktuelle Selbstkorrekturansätze in Text-zu-SQL stehen vor zwei kritischen Einschränkungen: 1) Konventionelle Selbstkorrekturmethoden stützen sich auf rekursive Selbstaufrufe von LLMs (Large Language Models), was zu einem multiplikativen Rechenaufwand führt, und 2) LLMs haben Schwierigkeiten, effektive Fehlererkennung und -korrektur für deklarative SQL-Abfragen zu implementieren, da sie den zugrunde liegenden Denkpfad nicht aufzeigen können. In dieser Arbeit schlagen wir SHARE vor, einen SLM-basierten hierarchischen Aktionskorrekturassistenten, der es LLMs ermöglicht, präzisere Fehlerlokalisierung und effiziente Korrektur durchzuführen. SHARE orchestriert drei spezialisierte Small Language Models (SLMs) in einer sequenziellen Pipeline, bei der zunächst deklarative SQL-Abfragen in schrittweise Aktionspfade transformiert werden, die den zugrunde liegenden Denkprozess offenlegen, gefolgt von einer zweiphasigen granularen Verfeinerung. Wir schlagen außerdem eine neuartige hierarchische Selbstentwicklungsstrategie für dateneffizientes Training vor. Experimentelle Ergebnisse zeigen, dass SHARE die Selbstkorrekturfähigkeiten effektiv verbessert und sich gleichzeitig robust über verschiedene LLMs hinweg erweist. Darüber hinaus zeigt unsere umfassende Analyse, dass SHARE auch in ressourcenarmen Trainingsumgebungen eine starke Leistung beibehält, was besonders für Text-zu-SQL-Anwendungen mit Datenschutzbeschränkungen wertvoll ist.
English
Current self-correction approaches in text-to-SQL face two critical
limitations: 1) Conventional self-correction methods rely on recursive
self-calls of LLMs, resulting in multiplicative computational overhead, and 2)
LLMs struggle to implement effective error detection and correction for
declarative SQL queries, as they fail to demonstrate the underlying reasoning
path. In this work, we propose SHARE, an SLM-based Hierarchical Action
corREction assistant that enables LLMs to perform more precise error
localization and efficient correction. SHARE orchestrates three specialized
Small Language Models (SLMs) in a sequential pipeline, where it first
transforms declarative SQL queries into stepwise action trajectories that
reveal underlying reasoning, followed by a two-phase granular refinement. We
further propose a novel hierarchical self-evolution strategy for data-efficient
training. Experimental results demonstrate that SHARE effectively enhances
self-correction capabilities while proving robust across various LLMs.
Furthermore, our comprehensive analysis shows that SHARE maintains strong
performance even in low-resource training settings, which is particularly
valuable for text-to-SQL applications with data privacy constraints.