ChatPaper.aiChatPaper

No desperdicies la oportunidad: Guiando recomendadores generativos con conocimientos humanos estructurados mediante decodificación multi-cabezal

Don't Waste It: Guiding Generative Recommenders with Structured Human Priors via Multi-head Decoding

November 13, 2025
Autores: Yunkai Zhang, Qiang Zhang, Feng, Lin, Ruizhong Qiu, Hanchao Yu, Jason Liu, Yinglong Xia, Zhuoran Yu, Zeyu Zheng, Diji Yang
cs.AI

Resumen

La optimización de los sistemas de recomendación para objetivos más allá de la precisión, como la diversidad, la novedad y la personalización, es crucial para la satisfacción del usuario a largo plazo. Para ello, los profesionales de la industria han acumulado grandes cantidades de conocimiento del dominio estructurado, que denominamos *priors* humanos (por ejemplo, taxonomías de ítems, patrones temporales). Este conocimiento se aplica típicamente mediante ajustes *post-hoc* durante la clasificación o post-clasificación. Sin embargo, este enfoque permanece disociado del aprendizaje central del modelo, lo cual es particularmente indeseable a medida que la industria se desplaza hacia modelos de base generativos de recomendación de extremo a extremo. Por otro lado, muchos métodos dirigidos a estos objetivos más allá de la precisión a menudo requieren modificaciones específicas de la arquitectura y descartan estos valiosos *priors* humanos al aprender la intención del usuario de una manera completamente no supervisada. En lugar de descartar los *priors* humanos acumulados durante años de práctica, presentamos un marco independiente de la arquitectura base que integra perfectamente estos *priors* humanos directamente en el entrenamiento de extremo a extremo de los recomendadores generativos. Mediante cabezales adaptadores ligeros, condicionados por los *priors* e inspirados en estrategias eficientes de decodificación de LLM, nuestro enfoque guía al modelo para desentrañar la intención del usuario a lo largo de ejes comprensibles para los humanos (por ejemplo, tipos de interacción, intereses a largo versus corto plazo). También introducimos una estrategia de composición jerárquica para modelar interacciones complejas entre diferentes tipos de *priors*. Experimentos exhaustivos en tres conjuntos de datos a gran escala demuestran que nuestro método mejora significativamente tanto los objetivos de precisión como los que van más allá de la precisión. También mostramos que los *priors* humanos permiten al modelo base aprovechar de manera más efectiva longitudes de contexto más largas y tamaños de modelo más grandes.
English
Optimizing recommender systems for objectives beyond accuracy, such as diversity, novelty, and personalization, is crucial for long-term user satisfaction. To this end, industrial practitioners have accumulated vast amounts of structured domain knowledge, which we term human priors (e.g., item taxonomies, temporal patterns). This knowledge is typically applied through post-hoc adjustments during ranking or post-ranking. However, this approach remains decoupled from the core model learning, which is particularly undesirable as the industry shifts to end-to-end generative recommendation foundation models. On the other hand, many methods targeting these beyond-accuracy objectives often require architecture-specific modifications and discard these valuable human priors by learning user intent in a fully unsupervised manner. Instead of discarding the human priors accumulated over years of practice, we introduce a backbone-agnostic framework that seamlessly integrates these human priors directly into the end-to-end training of generative recommenders. With lightweight, prior-conditioned adapter heads inspired by efficient LLM decoding strategies, our approach guides the model to disentangle user intent along human-understandable axes (e.g., interaction types, long- vs. short-term interests). We also introduce a hierarchical composition strategy for modeling complex interactions across different prior types. Extensive experiments on three large-scale datasets demonstrate that our method significantly enhances both accuracy and beyond-accuracy objectives. We also show that human priors allow the backbone model to more effectively leverage longer context lengths and larger model sizes.
PDF52December 1, 2025