ChatPaper.aiChatPaper

HY-WU (Parte I): Un Marco de Memoria Neural Funcional Extensible y una Instanciación en Edición de Imágenes Guiada por Texto

HY-WU (Part I): An Extensible Functional Neural Memory Framework and An Instantiation in Text-Guided Image Editing

March 7, 2026
Autores: Tencent HY Team
cs.AI

Resumen

Los modelos fundacionales están transitando de predictores estáticos a sistemas desplegados que deben operar en horizontes temporales prolongados. En implementaciones reales, los objetivos no son fijos: los dominios cambian, las preferencias de los usuarios evolucionan y surgen nuevas tareas tras el despliegue del modelo. Esto eleva el aprendizaje continuo y la personalización instantánea de características opcionales a requisitos arquitectónicos centrales. Sin embargo, la mayoría de los pipelines de adaptación siguen un paradigma de pesos estáticos: tras el entrenamiento (o cualquier etapa de adaptación), la inferencia ejecuta un único vector de parámetros independientemente de la intención del usuario, el dominio o las restricciones específicas de la instancia. Esto trata al modelo entrenado o adaptado como un punto único en el espacio de parámetros. En regímenes heterogéneos y en continua evolución, objetivos distintos pueden inducir regiones factibles separadas en los parámetros, forzando a cualquier actualización compartida a compromisos, interferencias o sobreespecialización. Como resultado, el aprendizaje continuo y la personalización suelen implementarse como sobrescritura repetida de pesos compartidos, arriesgando la degradación de comportamientos previamente aprendidos. Proponemos HY-WU (Desencadenamiento de Pesos), un marco de adaptación con prioridad en memoria que desplaza la presión adaptativa lejos de sobrescribir un único punto de parámetros compartido. HY-WU implementa memoria funcional (a nivel de operador) como un módulo neuronal: un generador que sintetiza actualizaciones de pesos bajo demanda desde la condición de instancia, produciendo operadores específicos por instancia sin optimización en tiempo de prueba.
English
Foundation models are transitioning from offline predictors to deployed systems expected to operate over long time horizons. In real deployments, objectives are not fixed: domains drift, user preferences evolve, and new tasks appear after the model has shipped. This elevates continual learning and instant personalization from optional features to core architectural requirements. Yet most adaptation pipelines still follow a static weight paradigm: after training (or after any adaptation step), inference executes a single parameter vector regardless of user intent, domain, or instance-specific constraints. This treats the trained or adapted model as a single point in parameter space. In heterogeneous and continually evolving regimes, distinct objectives can induce separated feasible regions over parameters, forcing any single shared update into compromise, interference, or overspecialization. As a result, continual learning and personalization are often implemented as repeated overwriting of shared weights, risking degradation of previously learned behaviors. We propose HY-WU (Weight Unleashing), a memory-first adaptation framework that shifts adaptation pressure away from overwriting a single shared parameter point. HY-WU implements functional (operator-level) memory as a neural module: a generator that synthesizes weight updates on-the-fly from the instance condition, yielding instance-specific operators without test-time optimization.
PDF32March 16, 2026