ChatPaper.aiChatPaper

User-LLM: Contestualizzazione Efficiente di LLM con Embedding Utente

User-LLM: Efficient LLM Contextualization with User Embeddings

February 21, 2024
Autori: Lin Ning, Luyang Liu, Jiaxing Wu, Neo Wu, Devora Berlowitz, Sushant Prakash, Bradley Green, Shawn O'Banion, Jun Xie
cs.AI

Abstract

I grandi modelli linguistici (LLM) hanno rivoluzionato l'elaborazione del linguaggio naturale. Tuttavia, incorporare efficacemente dati complessi e potenzialmente rumorosi provenienti dalle interazioni degli utenti rimane una sfida. Per affrontare questo problema, proponiamo User-LLM, un nuovo framework che sfrutta gli embedding degli utenti per contestualizzare gli LLM. Questi embedding, distillati da diverse interazioni degli utenti utilizzando il pretraining auto-supervisionato, catturano le preferenze latenti degli utenti e la loro evoluzione nel tempo. Integriamo questi embedding degli utenti con gli LLM attraverso meccanismi di cross-attention e soft-prompting, consentendo agli LLM di adattarsi dinamicamente al contesto dell'utente. I nostri esperimenti completi sui dataset MovieLens, Amazon Review e Google Local Review dimostrano significativi miglioramenti delle prestazioni in vari compiti. In particolare, il nostro approccio supera la contestualizzazione basata su prompt di testo nei compiti con sequenze lunghe e nei compiti che richiedono una profonda comprensione dell'utente, pur essendo computazionalmente efficiente. Inoltre, incorporiamo strati Perceiver per semplificare l'integrazione tra gli encoder degli utenti e gli LLM, riducendo le richieste computazionali.
English
Large language models (LLMs) have revolutionized natural language processing. However, effectively incorporating complex and potentially noisy user interaction data remains a challenge. To address this, we propose User-LLM, a novel framework that leverages user embeddings to contextualize LLMs. These embeddings, distilled from diverse user interactions using self-supervised pretraining, capture latent user preferences and their evolution over time. We integrate these user embeddings with LLMs through cross-attention and soft-prompting, enabling LLMs to dynamically adapt to user context. Our comprehensive experiments on MovieLens, Amazon Review, and Google Local Review datasets demonstrate significant performance gains across various tasks. Notably, our approach outperforms text-prompt-based contextualization on long sequence tasks and tasks that require deep user understanding while being computationally efficient. We further incorporate Perceiver layers to streamline the integration between user encoders and LLMs, reducing computational demands.
PDF201December 15, 2024