AdditiveLLM2: Un modello linguistico di grandi dimensioni multimodale per la produzione additiva
AdditiveLLM2: A Multi-modal Large Language Model for Additive Manufacturing
March 23, 2026
Autori: Peter Pak, Amir Barati Farimani
cs.AI
Abstract
Questo lavoro presenta AdditiveLLM2, un modello linguistico di grandi dimensioni multimodale e adattato al dominio, costruito a partire dalla variante ottimizzata per istruzioni del modello Gemma 3 utilizzando un dataset relativamente piccolo di circa 50 milioni di token. Il dataset (AdditiveLLM2-OA) è composto da articoli di riviste ad accesso aperto sulla manifattura additiva, con dati estratti per i processi di pre-addestramento adattativo al dominio e di ottimizzazione per istruzioni visive. Le varie fasi del modello sviluppato sono state valutate con l'Additive-Manufacturing-Benchmark, che consiste in compiti specifici del dominio della manifattura additiva compilati da risorse pubblicate. AdditiveLLM2 dimostra competenza sia in compiti basati sul linguaggio che sulla visione, raggiungendo accuratezze superiori al 90% nella conoscenza generale della manifattura additiva. Questa strategia di pre-addestramento adattativo al dominio e di ottimizzazione per istruzioni delinea un metodo di specializzazione accessibile per i grandi modelli linguistici in un dominio come la manifattura additiva.
English
This work presents AdditiveLLM2 a multi-modal, domain adapted large language model built upon the instruction tuned variant of the Gemma 3 model using a relatively small dataset of around 50 million tokens. The dataset (AdditiveLLM2-OA) consists of open-access additive manufacturing journal articles with data extracted for the domain adaptive pretraining and visual instruction tuning processes. Various stages of the developed model are evaluated with the Additive-Manufacturing-Benchmark which consists of additive manufacturing domain specific tasks compiled published resources. AdditiveLLM2 exhibits proficiency in both language and vision based tasks, achieving accuracies upwards of 90% in general additive manufacturing knowledge. This domain adaptive pretraining and instruction tuning strategy outline an accessible specialization method for large language models to a domain such as additive manufacturing.