ChatPaper.aiChatPaper

Agrupador de Prefijos: Entrenamiento Eficiente de GRPO mediante Propagación hacia Adelante de Prefijos Compartidos

Prefix Grouper: Efficient GRPO Training through Shared-Prefix Forward

June 5, 2025
Autores: Zikang Liu, Tongtian Yue, Yepeng Tang, Longteng Guo, Junxian Cai, Qingbin Liu, Xi Chen, Jing Liu
cs.AI

Resumen

La Optimización de Políticas Relativas por Grupos (GRPO, por sus siglas en inglés) mejora el aprendizaje de políticas al calcular gradientes a partir de comparaciones relativas entre salidas candidatas que comparten un prefijo de entrada común. A pesar de su efectividad, GRPO introduce un sobrecosto computacional significativo al procesar prefijos compartidos largos, los cuales deben codificarse de manera redundante para cada miembro del grupo. Esta ineficiencia se convierte en un cuello de botella importante para la escalabilidad en escenarios de aprendizaje con contextos largos. Proponemos Prefix Grouper, un algoritmo de entrenamiento eficiente para GRPO que elimina el cómputo redundante del prefijo mediante una estrategia de Avance de Prefijo Compartido. En particular, al reestructurar la autoatención en dos partes, nuestro método permite que el prefijo compartido se codifique una sola vez, manteniendo al mismo tiempo la diferenciabilidad completa y la compatibilidad con el entrenamiento de extremo a extremo. Proporcionamos evidencia tanto teórica como empírica de que Prefix Grouper es equivalente en entrenamiento al GRPO estándar: produce salidas directas y gradientes inversos idénticos, lo que garantiza que la dinámica de optimización y el rendimiento final de la política permanezcan inalterados. Empíricamente, nuestros experimentos confirman que Prefix Grouper logra resultados consistentes mientras reduce significativamente el costo computacional del entrenamiento, especialmente en escenarios con prefijos largos. El método propuesto es completamente plug-and-play: es compatible con arquitecturas basadas en GRPO existentes y puede integrarse sin problemas en las tuberías de entrenamiento actuales como un reemplazo directo, sin requerir modificaciones estructurales y solo cambios mínimos en la construcción de entradas y el cómputo de atención. Prefix Grouper permite el uso de tamaños de grupo más grandes bajo el mismo presupuesto computacional, mejorando así la escalabilidad de GRPO para tareas más complejas y modelos más grandes. El código está disponible en https://github.com/johncaged/PrefixGrouper.
English
Group Relative Policy Optimization (GRPO) enhances policy learning by computing gradients from relative comparisons among candidate outputs that share a common input prefix. Despite its effectiveness, GRPO introduces substantial computational overhead when processing long shared prefixes, which must be redundantly encoded for each group member. This inefficiency becomes a major scalability bottleneck in long-context learning scenarios. We propose Prefix Grouper, an efficient GRPO training algorithm that eliminates redundant prefix computation via a Shared-Prefix Forward strategy. In particular, by restructuring self-attention into two parts, our method enables the shared prefix to be encoded only once, while preserving full differentiability and compatibility with end-to-end training. We provide both theoretical and empirical evidence that Prefix Grouper is training-equivalent to standard GRPO: it yields identical forward outputs and backward gradients, ensuring that the optimization dynamics and final policy performance remain unchanged. Empirically, our experiments confirm that Prefix Grouper achieves consistent results while significantly reducing the computational cost of training, particularly in long-prefix scenarios. The proposed method is fully plug-and-play: it is compatible with existing GRPO-based architectures and can be seamlessly integrated into current training pipelines as a drop-in replacement, requiring no structural modifications and only minimal changes to input construction and attention computation. Prefix Grouper enables the use of larger group sizes under the same computational budget, thereby improving the scalability of GRPO to more complex tasks and larger models. Code is now available at https://github.com/johncaged/PrefixGrouper
PDF42June 9, 2025