ChatPaper.aiChatPaper

Semantische IDs für gemeinsame generative Suche und Empfehlung

Semantic IDs for Joint Generative Search and Recommendation

August 14, 2025
papers.authors: Gustavo Penha, Edoardo D'Amico, Marco De Nadai, Enrico Palumbo, Alexandre Tamborrino, Ali Vardasbi, Max Lefarov, Shawn Lin, Timothy Heath, Francesco Fabbri, Hugues Bouchard
cs.AI

papers.abstract

Generative Modelle, die von Large Language Models (LLMs) angetrieben werden, entwickeln sich zu einer einheitlichen Lösung für die Unterstützung sowohl von Empfehlungs- als auch Suchaufgaben. Eine zentrale Designentscheidung bei diesen Modellen ist die Art der Darstellung von Elementen, traditionell durch eindeutige Identifikatoren (IDs) und in jüngerer Zeit durch Semantic IDs, die aus diskreten Codes bestehen, die aus Embeddings gewonnen werden. Während aufgaben-spezifische Embedding-Modelle die Leistung für einzelne Aufgaben verbessern können, generalisieren sie möglicherweise nicht gut in einem gemeinsamen Kontext. In diesem Artikel untersuchen wir, wie Semantic IDs konstruiert werden können, die sowohl bei der Suche als auch bei Empfehlungen gut abschneiden, wenn ein einheitliches Modell verwendet wird. Wir vergleichen eine Reihe von Strategien zur Konstruktion von Semantic IDs, betrachten dabei aufgaben-spezifische und übergreifende Ansätze und untersuchen auch, ob jede Aufgabe ihre eigenen semantischen ID-Tokens in einem gemeinsamen generativen Modell für Suche und Empfehlung haben sollte. Unsere Ergebnisse zeigen, dass die Verwendung eines Bi-Encoder-Modells, das sowohl auf Such- als auch auf Empfehlungsaufgaben feinabgestimmt ist, um Element-Embeddings zu erhalten, gefolgt von der Konstruktion eines einheitlichen Semantic ID-Raums, einen effektiven Kompromiss bietet, der eine starke Leistung in beiden Aufgaben ermöglicht. Wir hoffen, dass diese Erkenntnisse Folgearbeiten zu generalisierbaren, semantisch fundierten ID-Schemata anregen und die nächste Welle einheitlicher generativer Empfehlungsarchitekturen informieren.
English
Generative models powered by Large Language Models (LLMs) are emerging as a unified solution for powering both recommendation and search tasks. A key design choice in these models is how to represent items, traditionally through unique identifiers (IDs) and more recently with Semantic IDs composed of discrete codes, obtained from embeddings. While task-specific embedding models can improve performance for individual tasks, they may not generalize well in a joint setting. In this paper, we explore how to construct Semantic IDs that perform well both in search and recommendation when using a unified model. We compare a range of strategies to construct Semantic IDs, looking into task-specific and cross-tasks approaches, and also whether each task should have its own semantic ID tokens in a joint search and recommendation generative model. Our results show that using a bi-encoder model fine-tuned on both search and recommendation tasks to obtain item embeddings, followed by the construction of a unified Semantic ID space provides an effective trade-off, enabling strong performance in both tasks. We hope these findings spark follow-up work on generalisable, semantically grounded ID schemes and inform the next wave of unified generative recommender architectures.
PDF21August 20, 2025