ChatPaper.aiChatPaper

BuildBench: Valutazione degli Agenti LLM nella Compilazione di Software Open-Source del Mondo Reale

BuildBench: Benchmarking LLM Agents on Compiling Real-World Open-Source Software

September 27, 2025
Autori: Zehua Zhang, Ati Priya Bajaj, Divij Handa, Siyu Liu, Arvind S Raj, Hongkai Chen, Hulin Wang, Yibo Liu, Zion Leonahenahe Basque, Souradip Nath, Vishal Juneja, Nikhil Chapre, Yan Shoshitaishvili, Adam Doupé, Chitta Baral, Ruoyu Wang
cs.AI

Abstract

La compilazione automatica di progetti software open-source (OSS) è un'attività cruciale, laboriosa e complessa, che la rende una sfida ideale per gli agenti basati su LLM (Large Language Models). I metodi esistenti si basano su regole e flussi di lavoro curati manualmente, che non possono adattarsi a OSS che richiedono configurazioni personalizzate o setup ambientali specifici. Tentativi recenti che utilizzano modelli linguistici di grandi dimensioni (LLM) hanno adottato una valutazione selettiva su un sottoinsieme di OSS altamente valutati, una pratica che sottostima le sfide realistiche della compilazione di OSS. Nella pratica, le istruzioni di compilazione sono spesso assenti, le dipendenze non sono documentate e build di successo possono persino richiedere la modifica di file sorgente o script di compilazione. Proponiamo un benchmark più impegnativo e realistico, BUILD-BENCH, che comprende OSS più diversificati in termini di qualità, scala e caratteristiche. Inoltre, proponiamo un solido agente basato su LLM, OSS-BUILD-AGENT, un sistema efficace con un modulo potenziato per il recupero delle istruzioni di compilazione, che raggiunge prestazioni all'avanguardia su BUILD-BENCH ed è adattabile a caratteristiche eterogenee degli OSS. Forniamo anche un'analisi dettagliata riguardo alle diverse scelte progettuali dei metodi di compilazione e alla loro influenza sull'intero compito, offrendo spunti per guidare i progressi futuri. Crediamo che le prestazioni su BUILD-BENCH possano riflettere fedelmente la capacità di un agente di affrontare la compilazione come un complesso compito di ingegneria del software e, in quanto tale, il nostro benchmark stimolerà l'innovazione con un impatto significativo sulle applicazioni downstream nei campi dello sviluppo software e della sicurezza del software.
English
Automatically compiling open-source software (OSS) projects is a vital, labor-intensive, and complex task, which makes it a good challenge for LLM Agents. Existing methods rely on manually curated rules and workflows, which cannot adapt to OSS that requires customized configuration or environment setup. Recent attempts using Large Language Models (LLMs) used selective evaluation on a subset of highly rated OSS, a practice that underestimates the realistic challenges of OSS compilation. In practice, compilation instructions are often absent, dependencies are undocumented, and successful builds may even require patching source files or modifying build scripts. We propose a more challenging and realistic benchmark, BUILD-BENCH, comprising OSS that are more diverse in quality, scale, and characteristics. Furthermore, we propose a strong baseline LLM-based agent, OSS-BUILD-AGENT, an effective system with enhanced build instruction retrieval module that achieves state-of-the-art performance on BUILD-BENCH and is adaptable to heterogeneous OSS characteristics. We also provide detailed analysis regarding different compilation method design choices and their influence to the whole task, offering insights to guide future advances. We believe performance on BUILD-BENCH can faithfully reflect an agent's ability to tackle compilation as a complex software engineering tasks, and, as such, our benchmark will spur innovation with a significant impact on downstream applications in the fields of software development and software security.
PDF22October 1, 2025