AdditiveLLM2: Un modelo de lenguaje grande multimodal para la fabricación aditiva
AdditiveLLM2: A Multi-modal Large Language Model for Additive Manufacturing
March 23, 2026
Autores: Peter Pak, Amir Barati Farimani
cs.AI
Resumen
Este trabajo presenta AdditiveLLM2, un modelo de lenguaje grande multimodal y adaptado al dominio, construido a partir de la variante ajustada por instrucciones del modelo Gemma 3 utilizando un conjunto de datos relativamente pequeño de alrededor de 50 millones de tokens. El conjunto de datos (AdditiveLLM2-OA) consiste en artículos de revistas de acceso abierto sobre fabricación aditiva, con datos extraídos para los procesos de preentrenamiento adaptativo al dominio y ajuste fino por instrucciones visuales. Se evalúan varias etapas del modelo desarrollado con el Additive-Manufacturing-Benchmark, que consta de tareas específicas del dominio de la fabricación aditiva compiladas a partir de recursos publicados. AdditiveLLM2 demuestra competencia tanto en tareas basadas en lenguaje como en visión, alcanzando precisiones superiores al 90% en conocimiento general de fabricación aditiva. Esta estrategia de preentrenamiento adaptativo al dominio y ajuste por instrucciones describe un método de especialización accesible para modelos de lenguaje grandes en un dominio como la fabricación aditiva.
English
This work presents AdditiveLLM2 a multi-modal, domain adapted large language model built upon the instruction tuned variant of the Gemma 3 model using a relatively small dataset of around 50 million tokens. The dataset (AdditiveLLM2-OA) consists of open-access additive manufacturing journal articles with data extracted for the domain adaptive pretraining and visual instruction tuning processes. Various stages of the developed model are evaluated with the Additive-Manufacturing-Benchmark which consists of additive manufacturing domain specific tasks compiled published resources. AdditiveLLM2 exhibits proficiency in both language and vision based tasks, achieving accuracies upwards of 90% in general additive manufacturing knowledge. This domain adaptive pretraining and instruction tuning strategy outline an accessible specialization method for large language models to a domain such as additive manufacturing.