ChatPaper.aiChatPaper

LLM-R2: Ein großes Sprachmodell verbessertes regelbasiertes Umschreibungssystem zur Steigerung der Abfrageeffizienz

LLM-R2: A Large Language Model Enhanced Rule-based Rewrite System for Boosting Query Efficiency

April 19, 2024
Autoren: Zhaodonghui Li, Haitao Yuan, Huiming Wang, Gao Cong, Lidong Bing
cs.AI

Zusammenfassung

Die Umformulierung von Abfragen, die darauf abzielt, effizientere Abfragen zu generieren, indem die Struktur einer SQL-Abfrage geändert wird, ohne das Abfrageergebnis zu verändern, ist ein wichtiges Forschungsproblem. Um die Äquivalenz zwischen der umgeschriebenen Abfrage und der Originalabfrage während der Umformulierung aufrechtzuerhalten, schreiben traditionelle Methoden zur Abfrageumformung die Abfragen immer gemäß bestimmter Umformungsregeln um. Allerdings bestehen weiterhin einige Probleme. Erstens sind bestehende Methoden zur Ermittlung der optimalen Wahl oder Reihenfolge von Umformungsregeln noch begrenzt und der Prozess verursacht immer hohe Ressourcenkosten. Methoden, die die Entdeckung neuer Umformungsregeln beinhalten, erfordern typischerweise komplizierte Beweise struktureller Logik oder umfangreiche Benutzerinteraktionen. Zweitens sind aktuelle Methoden zur Abfrageumformung in hohem Maße auf DBMS-Kostenabschätzungen angewiesen, die oft ungenau sind. In diesem Artikel adressieren wir diese Probleme, indem wir eine neuartige Methode zur Abfrageumformung namens LLM-R2 vorschlagen, die ein großes Sprachmodell (LLM) übernimmt, um mögliche Umformungsregeln für ein Datenbankumformungssystem vorzuschlagen. Um die Inferenzfähigkeit des LLM bei der Empfehlung von Umformungsregeln weiter zu verbessern, trainieren wir ein kontrastives Modell durch Lehrpläne, um Abfrage-Repräsentationen zu erlernen und effektive Abfrage-Demonstrationen für das LLM auszuwählen. Experimentelle Ergebnisse haben gezeigt, dass unsere Methode die Abfrageausführungseffizienz signifikant verbessern kann und die Basismethoden übertrifft. Darüber hinaus zeichnet sich unsere Methode durch hohe Robustheit über verschiedene Datensätze aus.
English
Query rewrite, which aims to generate more efficient queries by altering a SQL query's structure without changing the query result, has been an important research problem. In order to maintain equivalence between the rewritten query and the original one during rewriting, traditional query rewrite methods always rewrite the queries following certain rewrite rules. However, some problems still remain. Firstly, existing methods of finding the optimal choice or sequence of rewrite rules are still limited and the process always costs a lot of resources. Methods involving discovering new rewrite rules typically require complicated proofs of structural logic or extensive user interactions. Secondly, current query rewrite methods usually rely highly on DBMS cost estimators which are often not accurate. In this paper, we address these problems by proposing a novel method of query rewrite named LLM-R2, adopting a large language model (LLM) to propose possible rewrite rules for a database rewrite system. To further improve the inference ability of LLM in recommending rewrite rules, we train a contrastive model by curriculum to learn query representations and select effective query demonstrations for the LLM. Experimental results have shown that our method can significantly improve the query execution efficiency and outperform the baseline methods. In addition, our method enjoys high robustness across different datasets.

Summary

AI-Generated Summary

PDF121December 15, 2024