Self-EvolveRec: Zelf-evoluerende aanbevelingssystemen met op LLM gebaseerde directionele feedback
Self-EvolveRec: Self-Evolving Recommender Systems with LLM-based Directional Feedback
February 13, 2026
Auteurs: Sein Kim, Sangwu Park, Hongseok Kang, Wonjoong Kim, Jimin Seo, Yeonjun In, Kanghoon Yoon, Chanyoung Park
cs.AI
Samenvatting
Traditionele methoden voor het automatiseren van het ontwerp van aanbevelingssystemen, zoals Neural Architecture Search (NAS), worden vaak beperkt door een vaste zoekruimte gedefinieerd door menselijke aannames, wat innovatie beperkt tot vooraf gedefinieerde operatoren. Hoewel recente op grote taalmodellen (LLM) gebaseerde code-evolutieframeworks de focus verleggen van een vaste zoekruimte naar open programmeerruimtes, vertrouwen ze voornamelijk op scalaire metrieken (bijv. NDCG, Hit Ratio) die geen kwalitatieve inzichten bieden in modelfouten of directionele richtlijnen voor verbetering. Om dit aan te pakken, stellen wij Self-EvolveRec voor, een nieuw framework dat een directionele feedbacklus creëert door een User Simulator voor kwalitatieve kritiek te integreren met een Model Diagnosis Tool voor kwantitatieve interne verificatie. Verder introduceren we een Diagnosis Tool - Model Co-Evolutie strategie om te waarborgen dat de evaluatiecriteria zich dynamisch aanpassen naarmate de aanbevelingsarchitectuur evolueert. Uitgebreide experimenten tonen aan dat Self-EvolveRec zowel de prestaties van het aanbevelingssysteem als de gebruikers tevredenheid significant verbetert in vergelijking met state-of-the-art NAS- en LLM-gestuurde code-evolutiebaselines. Onze code is beschikbaar op https://github.com/Sein-Kim/self_evolverec.
English
Traditional methods for automating recommender system design, such as Neural Architecture Search (NAS), are often constrained by a fixed search space defined by human priors, limiting innovation to pre-defined operators. While recent LLM-driven code evolution frameworks shift fixed search space target to open-ended program spaces, they primarily rely on scalar metrics (e.g., NDCG, Hit Ratio) that fail to provide qualitative insights into model failures or directional guidance for improvement. To address this, we propose Self-EvolveRec, a novel framework that establishes a directional feedback loop by integrating a User Simulator for qualitative critiques and a Model Diagnosis Tool for quantitative internal verification. Furthermore, we introduce a Diagnosis Tool - Model Co-Evolution strategy to ensure that evaluation criteria dynamically adapt as the recommendation architecture evolves. Extensive experiments demonstrate that Self-EvolveRec significantly outperforms state-of-the-art NAS and LLM-driven code evolution baselines in both recommendation performance and user satisfaction. Our code is available at https://github.com/Sein-Kim/self_evolverec.