ChatPaper.aiChatPaper

SQL-PaLM: Miglioramento dell'Adattamento di Modelli Linguistici di Grande Scala per il Text-to-SQL

SQL-PaLM: Improved Large Language ModelAdaptation for Text-to-SQL

May 26, 2023
Autori: Ruoxi Sun, Sercan O Arik, Hootan Nakhost, Hanjun Dai, Rajarishi Sinha, Pengcheng Yin, Tomas Pfister
cs.AI

Abstract

Una delle capacità emergenti più impressionanti dei grandi modelli linguistici (LLM) è la generazione di codice, incluso il linguaggio di interrogazione strutturato (SQL) per i database. Per il compito di convertire testo in linguaggio naturale in query SQL, noto come Text-to-SQL, l'adattamento degli LLM è di fondamentale importanza, sia in contesti di apprendimento in-context che di fine-tuning, a seconda della quantità di dati di adattamento utilizzati. In questo articolo, proponiamo un modello Text-to-SQL basato su LLM, chiamato SQL-PaLM, che si avvale di PaLM-2 e che spinge lo stato dell'arte in entrambi i contesti. La versione few-shot di SQL-PaLM si basa su un approccio di prompting basato sull'esecuzione e sull'autoconsistenza progettato per Text-to-SQL, e raggiunge un'accuratezza del 77,3% sul test-suite di Spider, che, per quanto ne sappiamo, è il primo a superare significativamente, con un margine del 4%, il precedente stato dell'arte ottenuto con il fine-tuning. Inoltre, dimostriamo che la versione fine-tuned di SQL-PaLM lo supera ulteriormente di un altro 1%. Verso l'applicazione di SQL-PaLM a scenari reali, valutiamo ulteriormente la sua robustezza su altre varianti impegnative di Spider e dimostriamo la superiore capacità di generalizzazione di SQL-PaLM. Inoltre, attraverso ampi studi di caso, dimostriamo le impressionanti capacità intelligenti e i vari fattori di successo dei modelli Text-to-SQL basati su LLM.
English
One impressive emergent capability of large language models (LLMs) is generation of code, including Structured Query Language (SQL) for databases. For the task of converting natural language text to SQL queries, Text-to-SQL, adaptation of LLMs is of paramount importance, both in in-context learning and fine-tuning settings, depending on the amount of adaptation data used. In this paper, we propose an LLM-based Text-to-SQL model SQL-PaLM, leveraging on PaLM-2, that pushes the state-of-the-art in both settings. Few-shot SQL-PaLM is based on an execution-based self-consistency prompting approach designed for Text-to-SQL, and achieves 77.3% in test-suite accuracy on Spider, which to our best knowledge is the first to outperform previous state-of-the-art with fine-tuning by a significant margin, 4%. Furthermore, we demonstrate that the fine-tuned SQL-PALM outperforms it further by another 1%. Towards applying SQL-PaLM to real-world scenarios we further evaluate its robustness on other challenging variants of Spider and demonstrate the superior generalization capability of SQL-PaLM. In addition, via extensive case studies, we demonstrate the impressive intelligent capabilities and various success enablers of LLM-based Text-to-SQL.
PDF203December 15, 2024