AdditiveLLM2: Een multimodaal groot taalmodel voor additieve productie
AdditiveLLM2: A Multi-modal Large Language Model for Additive Manufacturing
March 23, 2026
Auteurs: Peter Pak, Amir Barati Farimani
cs.AI
Samenvatting
Dit werk presenteert AdditiveLLM2, een multimodaal, domein-aangepast groot taalmodel dat is gebouwd op de instructie-afgestemde variant van het Gemma 3-model met behulp van een relatief kleine dataset van ongeveer 50 miljoen tokens. De dataset (AdditiveLLM2-OA) bestaat uit open-access wetenschappelijke artikelen over additieve productie, waarvan gegevens zijn geëxtraheerd voor de domeinadaptieve voorafgaande training en het visuele instructie-afstemmingsproces. Verschillende fasen van het ontwikkelde model worden geëvalueerd met de Additive-Manufacturing-Benchmark, die bestaat uit domeinspecifieke taken voor additieve productie, samengesteld uit gepubliceerde bronnen. AdditiveLLM2 toont bekwaamheid in zowel op taal als op visie gebaseerde taken en behaalt nauwkeurigheden van meer dan 90% voor algemene kennis over additieve productie. Deze strategie van domeinadaptieve voorafgaande training en instructie-afstemming schetst een toegankelijke specialisatiemethode voor grote taalmodellen voor een domein zoals additieve productie.
English
This work presents AdditiveLLM2 a multi-modal, domain adapted large language model built upon the instruction tuned variant of the Gemma 3 model using a relatively small dataset of around 50 million tokens. The dataset (AdditiveLLM2-OA) consists of open-access additive manufacturing journal articles with data extracted for the domain adaptive pretraining and visual instruction tuning processes. Various stages of the developed model are evaluated with the Additive-Manufacturing-Benchmark which consists of additive manufacturing domain specific tasks compiled published resources. AdditiveLLM2 exhibits proficiency in both language and vision based tasks, achieving accuracies upwards of 90% in general additive manufacturing knowledge. This domain adaptive pretraining and instruction tuning strategy outline an accessible specialization method for large language models to a domain such as additive manufacturing.