ID semantici per la ricerca generativa congiunta e la raccomandazione
Semantic IDs for Joint Generative Search and Recommendation
August 14, 2025
Autori: Gustavo Penha, Edoardo D'Amico, Marco De Nadai, Enrico Palumbo, Alexandre Tamborrino, Ali Vardasbi, Max Lefarov, Shawn Lin, Timothy Heath, Francesco Fabbri, Hugues Bouchard
cs.AI
Abstract
I modelli generativi basati su Large Language Models (LLM) stanno emergendo come una soluzione unificata per alimentare sia i task di raccomandazione che di ricerca. Una scelta progettuale chiave in questi modelli è come rappresentare gli elementi, tradizionalmente attraverso identificatori univoci (ID) e più recentemente con Semantic ID composti da codici discreti, ottenuti da embedding. Sebbene i modelli di embedding specifici per task possano migliorare le prestazioni per singoli task, potrebbero non generalizzare bene in un contesto congiunto. In questo articolo, esploriamo come costruire Semantic ID che performino bene sia nella ricerca che nella raccomandazione quando si utilizza un modello unificato. Confrontiamo una gamma di strategie per costruire Semantic ID, esaminando approcci specifici per task e cross-task, e anche se ogni task dovrebbe avere i propri token di Semantic ID in un modello generativo congiunto di ricerca e raccomandazione. I nostri risultati mostrano che l'utilizzo di un modello bi-encoder fine-tunato su entrambi i task di ricerca e raccomandazione per ottenere embedding degli elementi, seguito dalla costruzione di uno spazio unificato di Semantic ID, fornisce un compromesso efficace, consentendo prestazioni solide in entrambi i task. Speriamo che questi risultati stimolino ulteriori lavori su schemi di ID generalizzabili e semanticamente fondati e informino la prossima ondata di architetture generative unificate per la raccomandazione.
English
Generative models powered by Large Language Models (LLMs) are emerging as a
unified solution for powering both recommendation and search tasks. A key
design choice in these models is how to represent items, traditionally through
unique identifiers (IDs) and more recently with Semantic IDs composed of
discrete codes, obtained from embeddings. While task-specific embedding models
can improve performance for individual tasks, they may not generalize well in a
joint setting. In this paper, we explore how to construct Semantic IDs that
perform well both in search and recommendation when using a unified model. We
compare a range of strategies to construct Semantic IDs, looking into
task-specific and cross-tasks approaches, and also whether each task should
have its own semantic ID tokens in a joint search and recommendation generative
model. Our results show that using a bi-encoder model fine-tuned on both search
and recommendation tasks to obtain item embeddings, followed by the
construction of a unified Semantic ID space provides an effective trade-off,
enabling strong performance in both tasks. We hope these findings spark
follow-up work on generalisable, semantically grounded ID schemes and inform
the next wave of unified generative recommender architectures.