InstructExcel: Ein Benchmark für natürliche Sprachbefehle in Excel
InstructExcel: A Benchmark for Natural Language Instruction in Excel
October 23, 2023
Autoren: Justin Payan, Swaroop Mishra, Mukul Singh, Carina Negreanu, Christian Poelitz, Chitta Baral, Subhro Roy, Rasika Chakravarthy, Benjamin Van Durme, Elnaz Nouri
cs.AI
Zusammenfassung
Mit der Weiterentwicklung von Large Language Models (LLMs) können wir zunehmend komplexere NLP-Aufgaben in verschiedenen Domänen lösen, einschließlich Tabellenkalkulationen. Diese Arbeit untersucht, ob LLMs Code (Excel OfficeScripts, eine TypeScript-API zur Ausführung zahlreicher Aufgaben in Excel) generieren können, der Excel-spezifische Aufgaben löst, die über natürliche Sprachbefehle des Benutzers bereitgestellt werden. Dazu führen wir einen neuen groß angelegten Benchmark, InstructExcel, ein, der durch die Nutzung der „Automatisieren“-Funktion in Excel erstellt wurde, um OfficeScripts automatisch aus den Aktionen der Benutzer zu generieren. Unser Benchmark umfasst über 10.000 Beispiele, die mehr als 170 Excel-Operationen in 2.000 öffentlich verfügbaren Excel-Tabellen abdecken. Experimente in verschiedenen Zero-Shot- und Few-Shot-Szenarien zeigen, dass InstructExcel ein anspruchsvoller Benchmark für state-of-the-art Modelle wie GPT-4 ist. Wir beobachten, dass (1) die Verwendung von GPT-4 gegenüber GPT-3.5, (2) die Bereitstellung von mehr In-Context-Beispielen und (3) dynamisches Prompting die Leistung in diesem Benchmark verbessern können.
English
With the evolution of Large Language Models (LLMs) we can solve increasingly
more complex NLP tasks across various domains, including spreadsheets. This
work investigates whether LLMs can generate code (Excel OfficeScripts, a
TypeScript API for executing many tasks in Excel) that solves Excel specific
tasks provided via natural language user instructions. To do so we introduce a
new large-scale benchmark, InstructExcel, created by leveraging the 'Automate'
feature in Excel to automatically generate OfficeScripts from users' actions.
Our benchmark includes over 10k samples covering 170+ Excel operations across
2,000 publicly available Excel spreadsheets. Experiments across various
zero-shot and few-shot settings show that InstructExcel is a hard benchmark for
state of the art models like GPT-4. We observe that (1) using GPT-4 over
GPT-3.5, (2) providing more in-context examples, and (3) dynamic prompting can
help improve performance on this benchmark.