ChatPaper.aiChatPaper

Hiformer: Aprendizaje de Interacciones de Características Heterogéneas con Transformers para Sistemas de Recomendación

Hiformer: Heterogeneous Feature Interactions Learning with Transformers for Recommender Systems

November 10, 2023
Autores: Huan Gui, Ruoxi Wang, Ke Yin, Long Jin, Maciej Kula, Taibai Xu, Lichan Hong, Ed H. Chi
cs.AI

Resumen

El aprendizaje de interacciones entre características es el pilar fundamental para construir sistemas de recomendación. En aplicaciones a escala web, aprender interacciones entre características es extremadamente desafiante debido al espacio de características de entrada grande y disperso; mientras tanto, diseñar manualmente interacciones efectivas entre características es inviable debido al espacio de soluciones exponencial. Proponemos aprovechar una arquitectura basada en Transformer con capas de atención para capturar automáticamente las interacciones entre características. Las arquitecturas Transformer han tenido un gran éxito en muchos dominios, como el procesamiento del lenguaje natural y la visión por computadora. Sin embargo, no ha habido mucha adopción de la arquitectura Transformer para el modelado de interacciones entre características en la industria. Nuestro objetivo es cerrar esta brecha. Identificamos dos desafíos clave para aplicar la arquitectura Transformer estándar a sistemas de recomendación a escala web: (1) La arquitectura Transformer no logra capturar las interacciones heterogéneas entre características en la capa de autoatención; (2) La latencia de servicio de la arquitectura Transformer podría ser demasiado alta para implementarse en sistemas de recomendación a escala web. Primero proponemos una capa de autoatención heterogénea, que es una modificación simple pero efectiva de la capa de autoatención en Transformer, para tener en cuenta la heterogeneidad de las interacciones entre características. Luego presentamos Hiformer (Transformer de Interacciones Heterogéneas) para mejorar aún más la expresividad del modelo. Con aproximación de bajo rango y poda del modelo, Hiformer disfruta de una inferencia rápida para su implementación en línea. Los resultados extensos de experimentos fuera de línea corroboran la efectividad y eficiencia del modelo Hiformer. Hemos implementado con éxito el modelo Hiformer en un modelo de clasificación de aplicaciones a gran escala en Google Play, con una mejora significativa en las métricas clave de participación (hasta +2.66\%).
English
Learning feature interaction is the critical backbone to building recommender systems. In web-scale applications, learning feature interaction is extremely challenging due to the sparse and large input feature space; meanwhile, manually crafting effective feature interactions is infeasible because of the exponential solution space. We propose to leverage a Transformer-based architecture with attention layers to automatically capture feature interactions. Transformer architectures have witnessed great success in many domains, such as natural language processing and computer vision. However, there has not been much adoption of Transformer architecture for feature interaction modeling in industry. We aim at closing the gap. We identify two key challenges for applying the vanilla Transformer architecture to web-scale recommender systems: (1) Transformer architecture fails to capture the heterogeneous feature interactions in the self-attention layer; (2) The serving latency of Transformer architecture might be too high to be deployed in web-scale recommender systems. We first propose a heterogeneous self-attention layer, which is a simple yet effective modification to the self-attention layer in Transformer, to take into account the heterogeneity of feature interactions. We then introduce Hiformer (Heterogeneous Interaction Transformer) to further improve the model expressiveness. With low-rank approximation and model pruning, \hiformer enjoys fast inference for online deployment. Extensive offline experiment results corroborates the effectiveness and efficiency of the Hiformer model. We have successfully deployed the Hiformer model to a real world large scale App ranking model at Google Play, with significant improvement in key engagement metrics (up to +2.66\%).
PDF111December 15, 2024