Apriel-1.5-15b-Pensador
Apriel-1.5-15b-Thinker
October 1, 2025
Autores: Shruthan Radhakrishna, Aman Tiwari, Aanjaneya Shukla, Masoud Hashemi, Rishabh Maheshwary, Shiva Krishna Reddy Malay, Jash Mehta, Pulkit Pattnaik, Saloni Mittal, Khalil Slimi, Kelechi Ogueji, Akintunde Oladipo, Soham Parikh, Oluwanifemi Bamgbose, Toby Liang, Ahmed Masry, Khyati Mahajan, Sai Rajeswar Mudumba, Vikas Yadav, Sathwik Tejaswi Madhusudhan, Torsten Scholak, Sagar Davasam, Srinivas Sunkara, Nicholas Chapados
cs.AI
Resumen
Presentamos Apriel-1.5-15B-Thinker, un modelo de razonamiento multimodal de 15 mil millones de parámetros y pesos abiertos que alcanza un rendimiento de vanguardia mediante un diseño de entrenamiento en lugar de pura escala. Partiendo de Pixtral-12B, aplicamos una metodología progresiva en tres etapas: (1) escalado en profundidad para ampliar la capacidad de razonamiento sin necesidad de preentrenamiento desde cero, (2) preentrenamiento continuo por etapas que primero desarrolla una comprensión fundamental de texto y visión, y luego mejora el razonamiento visual mediante la generación dirigida de datos sintéticos que abordan la estructura espacial, la comprensión compositiva y la percepción de detalles finos, y (3) ajuste fino supervisado de alta calidad con solo texto, utilizando pares de instrucción-respuesta seleccionados que incluyen trazas explícitas de razonamiento en matemáticas, programación, ciencia y uso de herramientas. Es notable que nuestro modelo logra resultados competitivos sin aprendizaje por refuerzo ni optimización de preferencias, aislando así la contribución de nuestro enfoque centrado en datos de preentrenamiento continuo. En el Índice de Inteligencia Artificial de Artificial Analysis, Apriel-1.5-15B-Thinker obtiene una puntuación de 52, igualando a DeepSeek-R1-0528 a pesar de requerir significativamente menos recursos computacionales. En diez benchmarks de imágenes, su rendimiento se encuentra en promedio a cinco puntos de Gemini-2.5-Flash y Claude Sonnet-3.7, un logro clave para un modelo que opera dentro de las limitaciones de implementación en una sola GPU. Nuestros resultados demuestran que un diseño cuidadoso durante el entrenamiento puede cerrar brechas sustanciales de capacidad sin necesidad de una escala masiva, haciendo que el razonamiento multimodal de vanguardia sea accesible para organizaciones con infraestructura limitada. Publicamos el checkpoint del modelo, todas las recetas de entrenamiento y los protocolos de evaluación bajo la licencia MIT para impulsar la investigación de código abierto.
English
We present Apriel-1.5-15B-Thinker, a 15-billion parameter open-weights
multimodal reasoning model that achieves frontier-level performance through
training design rather than sheer scale. Starting from Pixtral-12B, we apply a
progressive three-stage methodology: (1) depth upscaling to expand reasoning
capacity without pretraining from scratch, (2) staged continual pre-training
that first develops foundational text and vision understanding, then enhances
visual reasoning through targeted synthetic data generation addressing spatial
structure, compositional understanding, and fine-grained perception, and (3)
high-quality text-only supervised fine-tuning on curated instruction-response
pairs with explicit reasoning traces spanning mathematics, coding, science, and
tool use. Notably, our model achieves competitive results without reinforcement
learning or preference optimization, isolating the contribution of our
data-centric continual pre-training approach. On the Artificial Analysis
Intelligence Index, Apriel-1.5-15B-Thinker attains a score of 52, matching
DeepSeek-R1-0528 despite requiring significantly fewer computational resources.
Across ten image benchmarks, its performance is on average within five points
of Gemini-2.5-Flash and Claude Sonnet-3.7, a key achievement for a model
operating within single-GPU deployment constraints. Our results demonstrate
that thoughtful mid-training 2 design can close substantial capability gaps
without massive scale, making frontier-level multimodal reasoning accessible to
organizations with limited infrastructure. We release the model checkpoint, all
training recipes, and evaluation protocols under the MIT license to to advance
open-source research.