Aprendizaje en Cadena de Modelos para Modelos de LenguajeChain-of-Model Learning for Language Model
En este artículo, proponemos un nuevo paradigma de aprendizaje, denominado Cadena-de-Modelo (Chain-of-Model, CoM), que incorpora la relación causal en los estados ocultos de cada capa en forma de cadena, introduciendo así una gran eficiencia de escalado en el entrenamiento del modelo y flexibilidad en la inferencia durante su despliegue. Introducimos el concepto de Cadena-de-Representación (Chain-of-Representation, CoR), que formula los estados ocultos en cada capa como una combinación de múltiples sub-representaciones (es decir, cadenas) a nivel de la dimensión oculta. En cada capa, cada cadena de las representaciones de salida solo puede ver todas las cadenas precedentes en las representaciones de entrada. En consecuencia, el modelo construido sobre el marco CoM puede escalar progresivamente el tamaño del modelo aumentando las cadenas basadas en los modelos anteriores (es decir, cadenas), y ofrecer múltiples submodelos de distintos tamaños para una inferencia elástica utilizando diferentes números de cadenas. Basándonos en este principio, diseñamos Cadena-de-Modelo-de-Lenguaje (Chain-of-Language-Model, CoLM), que incorpora la idea de CoM en cada capa de la arquitectura Transformer. Basándonos en CoLM, introducimos además CoLM-Air mediante un mecanismo de compartición de claves y valores (KV), que calcula todas las claves y valores dentro de la primera cadena y luego los comparte en todas las cadenas. Este diseño demuestra una extensibilidad adicional, como permitir un cambio fluido de modelos de lenguaje, aceleración de prefilling, entre otros. Los resultados experimentales demuestran que nuestra familia CoLM puede alcanzar un rendimiento comparable al Transformer estándar, al mismo tiempo que habilita una mayor flexibilidad, como el escalado progresivo para mejorar la eficiencia del entrenamiento y ofrecer múltiples tamaños de modelo para una inferencia elástica, abriendo un nuevo camino hacia la construcción de modelos de lenguaje. Nuestro código será lanzado en el futuro en: https://github.com/microsoft/CoLM.