ChatPaper.aiChatPaper

AdditiveLLM2: Um Modelo de Linguagem de Grande Porte Multimodal para Manufatura Aditiva

AdditiveLLM2: A Multi-modal Large Language Model for Additive Manufacturing

March 23, 2026
Autores: Peter Pak, Amir Barati Farimani
cs.AI

Resumo

Este trabalho apresenta o AdditiveLLM2, um modelo de linguagem grande multimodal e adaptado a um domínio, construído a partir da variante ajustada por instruções do modelo Gemma 3, utilizando um conjunto de dados relativamente pequeno de cerca de 50 milhões de tokens. O conjunto de dados (AdditiveLLM2-OA) consiste em artigos de revista de acesso aberto sobre manufatura aditiva, com dados extraídos para os processos de pré-treinamento adaptativo de domínio e de ajuste fino por instrução visual. Várias etapas do modelo desenvolvido são avaliadas com o *Additive-Manufacturing-Benchmark*, que consiste em tarefas específicas do domínio de manufatura aditiva compiladas a partir de recursos publicados. O AdditiveLLM2 demonstra proficiência em tarefas baseadas em linguagem e visão, atingindo precisões superiores a 90% em conhecimento geral de manufatura aditiva. Esta estratégia de pré-treinamento adaptativo de domínio e ajuste fino por instruções delineia um método de especialização acessível para modelos de linguagem grandes em um domínio específico, como a manufatura aditiva.
English
This work presents AdditiveLLM2 a multi-modal, domain adapted large language model built upon the instruction tuned variant of the Gemma 3 model using a relatively small dataset of around 50 million tokens. The dataset (AdditiveLLM2-OA) consists of open-access additive manufacturing journal articles with data extracted for the domain adaptive pretraining and visual instruction tuning processes. Various stages of the developed model are evaluated with the Additive-Manufacturing-Benchmark which consists of additive manufacturing domain specific tasks compiled published resources. AdditiveLLM2 exhibits proficiency in both language and vision based tasks, achieving accuracies upwards of 90% in general additive manufacturing knowledge. This domain adaptive pretraining and instruction tuning strategy outline an accessible specialization method for large language models to a domain such as additive manufacturing.
PDF12March 25, 2026