Ottimizzazione dei Sistemi AI Composti: Una Rassegna di Metodi, Sfide e Direzioni Future
Compound AI Systems Optimization: A Survey of Methods, Challenges, and Future Directions
June 9, 2025
Autori: Yu-Ang Lee, Guan-Ting Yi, Mei-Yi Liu, Jui-Chao Lu, Guan-Bo Yang, Yun-Nung Chen
cs.AI
Abstract
I recenti progressi nei modelli linguistici di grandi dimensioni (LLM) e nei sistemi di intelligenza artificiale hanno portato a un cambiamento di paradigma nella progettazione e ottimizzazione di flussi di lavoro complessi nell'ambito dell'IA. Integrando più componenti, i sistemi di IA composti sono diventati sempre più abili nell'eseguire compiti sofisticati. Tuttavia, con l'aumentare della complessità di questi sistemi, emergono nuove sfide nell'ottimizzazione non solo dei singoli componenti, ma anche delle loro interazioni. Sebbene i metodi tradizionali di ottimizzazione come il fine-tuning supervisionato (SFT) e l'apprendimento per rinforzo (RL) rimangano fondamentali, l'emergere del feedback in linguaggio naturale introduce approcci promettenti, specialmente per l'ottimizzazione di sistemi non differenziabili. Questo articolo fornisce una revisione sistematica dei recenti progressi nell'ottimizzazione dei sistemi di IA composti, comprendendo sia tecniche numeriche che basate sul linguaggio. Formalizziamo il concetto di ottimizzazione dei sistemi di IA composti, classifichiamo i metodi esistenti lungo diverse dimensioni chiave e evidenziamo le sfide di ricerca aperte e le direzioni future in questo campo in rapida evoluzione. Un elenco dei documenti esaminati è disponibile pubblicamente all'indirizzo https://github.com/MiuLab/AISysOpt-Survey.
English
Recent advancements in large language models (LLMs) and AI systems have led
to a paradigm shift in the design and optimization of complex AI workflows. By
integrating multiple components, compound AI systems have become increasingly
adept at performing sophisticated tasks. However, as these systems grow in
complexity, new challenges arise in optimizing not only individual components
but also their interactions. While traditional optimization methods such as
supervised fine-tuning (SFT) and reinforcement learning (RL) remain
foundational, the rise of natural language feedback introduces promising new
approaches, especially for optimizing non-differentiable systems. This paper
provides a systematic review of recent progress in optimizing compound AI
systems, encompassing both numerical and language-based techniques. We
formalize the notion of compound AI system optimization, classify existing
methods along several key dimensions, and highlight open research challenges
and future directions in this rapidly evolving field. A list of surveyed papers
is publicly available at https://github.com/MiuLab/AISysOpt-Survey.