ChatPaper.aiChatPaper

Identificadores Semánticos para Búsqueda Generativa y Recomendación Conjunta

Semantic IDs for Joint Generative Search and Recommendation

August 14, 2025
Autores: Gustavo Penha, Edoardo D'Amico, Marco De Nadai, Enrico Palumbo, Alexandre Tamborrino, Ali Vardasbi, Max Lefarov, Shawn Lin, Timothy Heath, Francesco Fabbri, Hugues Bouchard
cs.AI

Resumen

Los modelos generativos impulsados por Modelos de Lenguaje a Gran Escala (LLMs, por sus siglas en inglés) están surgiendo como una solución unificada para potenciar tanto tareas de recomendación como de búsqueda. Una decisión clave en el diseño de estos modelos es cómo representar los elementos, tradicionalmente a través de identificadores únicos (IDs) y, más recientemente, con IDs semánticos compuestos por códigos discretos, obtenidos a partir de embeddings. Si bien los modelos de embeddings específicos para tareas pueden mejorar el rendimiento en tareas individuales, es posible que no generalicen bien en un entorno conjunto. En este artículo, exploramos cómo construir IDs semánticos que funcionen bien tanto en búsqueda como en recomendación al utilizar un modelo unificado. Comparamos una variedad de estrategias para construir IDs semánticos, analizando enfoques específicos para tareas y entre tareas, y también si cada tarea debería tener sus propios tokens de ID semántico en un modelo generativo unificado de búsqueda y recomendación. Nuestros resultados muestran que el uso de un modelo bi-codificador ajustado tanto para tareas de búsqueda como de recomendación para obtener embeddings de elementos, seguido de la construcción de un espacio unificado de IDs semánticos, proporciona un equilibrio efectivo, permitiendo un rendimiento sólido en ambas tareas. Esperamos que estos hallazgos impulsen trabajos posteriores sobre esquemas de IDs generalizables y basados en semántica, e informen la próxima ola de arquitecturas generativas unificadas de recomendación.
English
Generative models powered by Large Language Models (LLMs) are emerging as a unified solution for powering both recommendation and search tasks. A key design choice in these models is how to represent items, traditionally through unique identifiers (IDs) and more recently with Semantic IDs composed of discrete codes, obtained from embeddings. While task-specific embedding models can improve performance for individual tasks, they may not generalize well in a joint setting. In this paper, we explore how to construct Semantic IDs that perform well both in search and recommendation when using a unified model. We compare a range of strategies to construct Semantic IDs, looking into task-specific and cross-tasks approaches, and also whether each task should have its own semantic ID tokens in a joint search and recommendation generative model. Our results show that using a bi-encoder model fine-tuned on both search and recommendation tasks to obtain item embeddings, followed by the construction of a unified Semantic ID space provides an effective trade-off, enabling strong performance in both tasks. We hope these findings spark follow-up work on generalisable, semantically grounded ID schemes and inform the next wave of unified generative recommender architectures.
PDF21August 20, 2025