ChatPaper.aiChatPaper

AgentSearchBench: Un Benchmark per la Ricerca di Agenti IA in Ambiente Reale

AgentSearchBench: A Benchmark for AI Agent Search in the Wild

April 24, 2026
Autori: Bin Wu, Arastun Mammadli, Xiaoyu Zhang, Emine Yilmaz
cs.AI

Abstract

La rapida crescita degli ecosistemi di agenti di IA sta trasformando il modo in cui i compiti complessi vengono delegati ed eseguiti, creando una nuova sfida: identificare gli agenti adatti per un determinato compito. A differenza degli strumenti tradizionali, le capacità degli agenti sono spesso compositive e dipendenti dall'esecuzione, rendendole difficili da valutare basandosi solo su descrizioni testuali. Tuttavia, la ricerca e i benchmark esistenti tipicamente presuppongono funzionalità ben specificate, pool di candidati controllati o solo query di compiti eseguibili, lasciando scenari realistici di ricerca di agenti insufficientemente studiati. Introduciamo AgentSearchBench, un benchmark su larga scala per la ricerca di agenti in contesti reali, costruito da quasi 10.000 agenti del mondo reale provenienti da molteplici fornitori. Il benchmark formalizza la ricerca di agenti come problemi di recupero e riordinamento sia con query di compiti eseguibili che con descrizioni di compiti di alto livello, e valuta la rilevanza utilizzando segnali di performance ancorati all'esecuzione. Gli esperimenti rivelano un divario consistente tra la similarità semantica e le prestazioni effettive degli agenti, evidenziando i limiti dei metodi di recupero e riordinamento basati sulla descrizione. Mostriamo inoltre che segnali comportamentali leggeri, inclusi i probing consapevoli dell'esecuzione, possono migliorare sostanzialmente la qualità del ranking, sottolineando l'importanza di incorporare segnali di esecuzione nella scoperta degli agenti. Il nostro codice è disponibile all'indirizzo https://github.com/Bingo-W/AgentSearchBench.
English
The rapid growth of AI agent ecosystems is transforming how complex tasks are delegated and executed, creating a new challenge of identifying suitable agents for a given task. Unlike traditional tools, agent capabilities are often compositional and execution-dependent, making them difficult to assess from textual descriptions alone. However, existing research and benchmarks typically assume well-specified functionalities, controlled candidate pools, or only executable task queries, leaving realistic agent search scenarios insufficiently studied. We introduce AgentSearchBench, a large-scale benchmark for agent search in the wild, built from nearly 10,000 real-world agents across multiple providers. The benchmark formalizes agent search as retrieval and reranking problems under both executable task queries and high-level task descriptions, and evaluates relevance using execution-grounded performance signals. Experiments reveal a consistent gap between semantic similarity and actual agent performance, exposing the limitations of description-based retrieval and reranking methods. We further show that lightweight behavioral signals, including execution-aware probing, can substantially improve ranking quality, highlighting the importance of incorporating execution signals into agent discovery. Our code is available at https://github.com/Bingo-W/AgentSearchBench.
PDF91April 28, 2026