Brainstacks: Capacidades Cognitivas Transdominio mediante Pilas Congeladas MoE-LoRA para el Aprendizaje Continuo de LLM
Brainstacks: Cross-Domain Cognitive Capabilities via Frozen MoE-LoRA Stacks for Continual LLM Learning
April 1, 2026
Autores: Mohammad R. Abu Ayyash
cs.AI
Resumen
Presentamos Brainstacks, una arquitectura modular para el ajuste fino continuo en múltiples dominios de modelos de lenguaje grandes que empaqueta el conocimiento experto del dominio como pilas de adaptadores congeladas que se componen de forma aditiva sobre una base compartida y congelada durante la inferencia. Cinco componentes interconectados: (1) MoE-LoRA con enrutamiento *noisy top-2* estilo Shazeer a través de las siete proyecciones del transformador bajo cuantización QLoRA de 4 bits con escalado rsLoRA; (2) un bucle interno que realiza *residual boosting* mediante la congelación de pilas entrenadas y la adición de nuevas; (3) un bucle externo que entrena pilas secuenciales específicas del dominio con dependencias ordenadas curricularmente; (4) proyección de espacio nulo mediante SVD aleatorizado que restringe las nuevas pilas a subespacios ortogonales a direcciones previas, logrando olvido cero en aislamiento; (5) un meta-enrutador sigmoide basado en resultados, entrenado sobre objetivos de combinación de dominios descubiertos empíricamente, que pondera selectivamente las pilas, permitiendo la composición cruzada de dominios. Dos experimentos límite: (6) Pretrenamiento PSN sobre un modelo inicializado aleatoriamente; (7) RL por dominio (DPO/GRPO) que valida la compatibilidad con la alineación posterior al SFT. Validado en TinyLlama-1.1B (4 dominios, 9 pilas) y Gemma 3 12B IT (5 dominios, 10 pilas), MoE-LoRA logra una convergencia 2.5 veces más rápida que un único LoRA con igual número de parámetros, el *residual boosting* supera el límite de la pila única, y el sistema enrutado recupera la calidad de generación destruida por la acumulación no regulada de pilas. El hallazgo central: el enrutador basado en resultados descubre que las pilas de dominio codifican primitivas cognitivas transferibles (claridad en el seguimiento de instrucciones, razonamiento numérico, lógica procedural, estructura de cadena de pensamiento) en lugar de conocimiento específico del dominio, con prompts médicos siendo enrutados a pilas de chat+matemáticas en el 97% de los casos a pesar de la ausencia de datos médicos en esas pilas.
English
We present Brainstacks, a modular architecture for continual multi-domain fine-tuning of large language models that packages domain expertise as frozen adapter stacks composing additively on a shared frozen base at inference. Five interlocking components: (1) MoE-LoRA with Shazeer-style noisy top-2 routing across all seven transformer projections under QLoRA 4-bit quantization with rsLoRA scaling; (2) an inner loop performing residual boosting by freezing trained stacks and adding new ones; (3) an outer loop training sequential domain-specific stacks with curriculum-ordered dependencies; (4) null-space projection via randomized SVD constraining new stacks to subspaces orthogonal to prior directions, achieving zero forgetting in isolation; (5) an outcome-based sigmoid meta-router trained on empirically discovered domain-combination targets that selectively weights stacks, enabling cross-domain composition. Two boundary experiments: (6) PSN pretraining on a randomly initialized model; (7) per-domain RL (DPO/GRPO) validating compatibility with post-SFT alignment. Validated on TinyLlama-1.1B (4 domains, 9 stacks) and Gemma 3 12B IT (5 domains, 10 stacks), MoE-LoRA achieves 2.5x faster convergence than parameter-matched single LoRA, residual boosting breaks through the single-stack ceiling, and the routed system recovers generation quality destroyed by ungated stack accumulation. The central finding: the outcome-based router discovers that domain stacks encode transferable cognitive primitives (instruction-following clarity, numerical reasoning, procedural logic, chain-of-thought structure) rather than domain-specific knowledge, with medical prompts routing to chat+math stacks in 97% of cases despite zero medical data in those stacks.