ChatPaper.aiChatPaper

Imparare a Configurare Sistemi di IA Agente

Learning to Configure Agentic AI Systems

February 12, 2026
Autori: Aditya Taparia, Som Sagar, Ransalu Senanayake
cs.AI

Abstract

La configurazione di sistemi agenti basati su LLM implica la selezione di flussi di lavoro, strumenti, budget di token e prompt da un ampio spazio di progettazione combinatoria, ed è tipicamente gestita oggi mediante modelli fissi di grandi dimensioni o euristiche regolate manualmente. Ciò comporta un comportamento fragile e un consumo computazionale non necessario, poiché la stessa configurazione macchinosa viene spesso applicata sia a query di input semplici che complesse. Inquadriamo la configurazione dell'agente come un problema decisionale per singola query e introduciamo ARC (Agentic Resource & Configuration learner), che apprende una politica gerarchica leggera utilizzando l'apprendimento per rinforzo per adattare dinamicamente queste configurazioni. In numerosi benchmark che coprono il ragionamento e question answering potenziato da strumenti, la politica appresa supera costantemente solide baseline progettate manualmente e altre, raggiungendo un'accuratezza del compito fino al 25% superiore riducendo al contempo i costi in termini di token e tempo di esecuzione. Questi risultati dimostrano che l'apprendimento di configurazioni agente per singola query è una valida alternativa ai design "one size fits all".
English
Configuring LLM-based agent systems involves choosing workflows, tools, token budgets, and prompts from a large combinatorial design space, and is typically handled today by fixed large templates or hand-tuned heuristics. This leads to brittle behavior and unnecessary compute, since the same cumbersome configuration is often applied to both easy and hard input queries. We formulate agent configuration as a query-wise decision problem and introduce ARC (Agentic Resource & Configuration learner), which learns a light-weight hierarchical policy using reinforcement learning to dynamically tailor these configurations. Across multiple benchmarks spanning reasoning and tool-augmented question answering, the learned policy consistently outperforms strong hand-designed and other baselines, achieving up to 25% higher task accuracy while also reducing token and runtime costs. These results demonstrate that learning per-query agent configurations is a powerful alternative to "one size fits all" designs.
PDF122February 18, 2026