BESPOKE: Benchmark per la Personalizzazione di Modelli Linguistici di Grande Dimensione Potenziati dalla Ricerca tramite Feedback Diagnostico
BESPOKE: Benchmark for Search-Augmented Large Language Model Personalization via Diagnostic Feedback
September 25, 2025
Autori: Hyunseo Kim, Sangam Lee, Kwangwook Seo, Dongha Lee
cs.AI
Abstract
I modelli linguistici di grandi dimensioni (LLM) potenziati dalla ricerca hanno fatto progredire le attività di ricerca di informazioni integrando il recupero nella generazione, riducendo il carico cognitivo degli utenti rispetto ai tradizionali sistemi di ricerca. Tuttavia, rimangono insufficienti per soddisfare appieno le diverse esigenze degli utenti, che richiedono il riconoscimento di come la stessa query possa riflettere intenzioni diverse tra gli utenti e la consegna delle informazioni nelle forme preferite. Sebbene sistemi recenti come ChatGPT e Gemini tentino la personalizzazione sfruttando le cronologie degli utenti, una valutazione sistematica di tale personalizzazione è ancora poco esplorata. Per colmare questa lacuna, proponiamo BESPOKE, il benchmark realistico per valutare la personalizzazione nei LLM potenziati dalla ricerca. BESPOKE è progettato per essere sia realistico, raccogliendo cronologie di chat e ricerche autentiche direttamente dagli esseri umani, sia diagnostico, abbinando le risposte a punteggi di preferenza dettagliati e feedback. Il benchmark è costruito attraverso un'annotazione umana a lungo termine e profondamente coinvolta, in cui gli annotatori umani hanno contribuito con le proprie cronologie, hanno formulato query con esigenze informative dettagliate e hanno valutato le risposte con punteggi e feedback diagnostici. Utilizzando BESPOKE, conduciamo analisi sistematiche che rivelano i requisiti chiave per una personalizzazione efficace nelle attività di ricerca di informazioni, fornendo una base per una valutazione dettagliata dei LLM potenziati dalla ricerca personalizzati. Il nostro codice e i dati sono disponibili all'indirizzo https://augustinlib.github.io/BESPOKE/.
English
Search-augmented large language models (LLMs) have advanced
information-seeking tasks by integrating retrieval into generation, reducing
users' cognitive burden compared to traditional search systems. Yet they remain
insufficient for fully addressing diverse user needs, which requires
recognizing how the same query can reflect different intents across users and
delivering information in preferred forms. While recent systems such as ChatGPT
and Gemini attempt personalization by leveraging user histories, systematic
evaluation of such personalization is under-explored. To address this gap, we
propose BESPOKE, the realistic benchmark for evaluating personalization in
search-augmented LLMs. BESPOKE is designed to be both realistic, by collecting
authentic chat and search histories directly from humans, and diagnostic, by
pairing responses with fine-grained preference scores and feedback. The
benchmark is constructed through long-term, deeply engaged human annotation,
where human annotators contributed their own histories, authored queries with
detailed information needs, and evaluated responses with scores and diagnostic
feedback. Leveraging BESPOKE, we conduct systematic analyses that reveal key
requirements for effective personalization in information-seeking tasks,
providing a foundation for fine-grained evaluation of personalized
search-augmented LLMs. Our code and data are available at
https://augustinlib.github.io/BESPOKE/.