Una Rassegna sull'Ingegneria del Contesto per i Modelli Linguistici di Grande Scala
A Survey of Context Engineering for Large Language Models
July 17, 2025
Autori: Lingrui Mei, Jiayu Yao, Yuyao Ge, Yiwei Wang, Baolong Bi, Yujun Cai, Jiazhi Liu, Mingyu Li, Zhong-Zhi Li, Duzhen Zhang, Chenlin Zhou, Jiayi Mao, Tianze Xia, Jiafeng Guo, Shenghua Liu
cs.AI
Abstract
Le prestazioni dei Large Language Models (LLM) sono fondamentalmente determinate dalle informazioni contestuali fornite durante l'inferenza. Questo studio introduce l'Ingegneria del Contesto, una disciplina formale che va oltre il semplice design dei prompt per abbracciare l'ottimizzazione sistematica dei carichi informativi per gli LLM. Presentiamo una tassonomia completa che scompone l'Ingegneria del Contesto nei suoi componenti fondamentali e nelle sofisticate implementazioni che li integrano in sistemi intelligenti. Esaminiamo innanzitutto i componenti fondamentali: recupero e generazione del contesto, elaborazione del contesto e gestione del contesto. Successivamente, esploriamo come questi componenti vengano integrati architettonicamente per creare implementazioni di sistemi avanzati: generazione aumentata dal recupero (RAG), sistemi di memoria e ragionamento integrato con strumenti, e sistemi multi-agente. Attraverso questa analisi sistematica di oltre 1300 articoli di ricerca, il nostro studio non solo stabilisce una roadmap tecnica per il campo, ma rivela anche un'importante lacuna di ricerca: esiste un'asimmetria fondamentale tra le capacità dei modelli. Mentre i modelli attuali, potenziati da un'ingegneria del contesto avanzata, dimostrano una notevole competenza nella comprensione di contesti complessi, mostrano limitazioni evidenti nella generazione di output altrettanto sofisticati e di lunga durata. Affrontare questa lacuna è una priorità definitoria per la ricerca futura. In definitiva, questo studio fornisce un quadro unificato sia per i ricercatori che per gli ingegneri che avanzano l'IA consapevole del contesto.
English
The performance of Large Language Models (LLMs) is fundamentally determined
by the contextual information provided during inference. This survey introduces
Context Engineering, a formal discipline that transcends simple prompt design
to encompass the systematic optimization of information payloads for LLMs. We
present a comprehensive taxonomy decomposing Context Engineering into its
foundational components and the sophisticated implementations that integrate
them into intelligent systems. We first examine the foundational components:
context retrieval and generation, context processing and context management. We
then explore how these components are architecturally integrated to create
sophisticated system implementations: retrieval-augmented generation (RAG),
memory systems and tool-integrated reasoning, and multi-agent systems. Through
this systematic analysis of over 1300 research papers, our survey not only
establishes a technical roadmap for the field but also reveals a critical
research gap: a fundamental asymmetry exists between model capabilities. While
current models, augmented by advanced context engineering, demonstrate
remarkable proficiency in understanding complex contexts, they exhibit
pronounced limitations in generating equally sophisticated, long-form outputs.
Addressing this gap is a defining priority for future research. Ultimately,
this survey provides a unified framework for both researchers and engineers
advancing context-aware AI.