AdditiveLLM2: Ein multimodales großes Sprachmodell für die additive Fertigung
AdditiveLLM2: A Multi-modal Large Language Model for Additive Manufacturing
March 23, 2026
Autoren: Peter Pak, Amir Barati Farimani
cs.AI
Zusammenfassung
Diese Arbeit stellt AdditiveLLM2 vor, ein multimodales, domänenangepasstes großes Sprachmodell, das auf der instruktionsfeinabgestimmten Variante des Gemma-3-Modells basiert und mit einem relativ kleinen Datensatz von etwa 50 Millionen Tokens trainiert wurde. Der Datensatz (AdditiveLLM2-OA) besteht aus frei zugänglichen Fachartikeln zur additiven Fertigung, deren Daten für den domänenadaptiven Vorabtrainings- und den visuellen Instruktionsfeinabstimmungsprozess extrahiert wurden. Verschiedene Entwicklungsstadien des Modells werden mit dem Additive-Manufacturing-Benchmark evaluiert, der sich aus domänenspezifischen Aufgaben für die additive Fertigung zusammensetzt, die aus veröffentlichten Ressourcen zusammengestellt wurden. AdditiveLLM2 zeigt Kompetenz sowohl bei sprachbasierten als auch bei bildbasierten Aufgaben und erzielt Genauigkeiten von über 90 % im Bereich des allgemeinen Wissens zur additiven Fertigung. Diese Strategie der domänenadaptiven Vorabtrainings- und Instruktionsfeinabstimmung skizziert eine zugängliche Methode zur Spezialisierung großer Sprachmodelle auf eine Domäne wie die additive Fertigung.
English
This work presents AdditiveLLM2 a multi-modal, domain adapted large language model built upon the instruction tuned variant of the Gemma 3 model using a relatively small dataset of around 50 million tokens. The dataset (AdditiveLLM2-OA) consists of open-access additive manufacturing journal articles with data extracted for the domain adaptive pretraining and visual instruction tuning processes. Various stages of the developed model are evaluated with the Additive-Manufacturing-Benchmark which consists of additive manufacturing domain specific tasks compiled published resources. AdditiveLLM2 exhibits proficiency in both language and vision based tasks, achieving accuracies upwards of 90% in general additive manufacturing knowledge. This domain adaptive pretraining and instruction tuning strategy outline an accessible specialization method for large language models to a domain such as additive manufacturing.