Diffutron: Um Modelo de Linguagem de Difusão Mascarada para a Língua Turca
Diffutron: A Masked Diffusion Language Model for Turkish Language
March 20, 2026
Autores: Şuayp Talha Kocabay, Talha Rüzgar Akkuş
cs.AI
Resumo
Os Modelos de Linguagem de Difusão Mascarada (MDLMs) surgiram como uma alternativa não autorregressiva atraente aos modelos de linguagem grandes padrão; no entanto, sua aplicação a idiomas morfologicamente ricos permanece limitada. Neste artigo, apresentamos o Diffutron, um modelo de linguagem de difusão mascarada especificamente projetado para o turco. Nossa abordagem aproveita um *pipeline* de treinamento eficiente em recursos, começando com o pré-treinamento contínuo baseado em LoRA de um codificador multilíngue em um corpus em larga escala. Para habilitar capacidades generativas, empregamos uma estratégia de *instruction-tuning* progressivo, adaptando sequencialmente o modelo em conjuntos de instruções gerais e específicos de tarefas. Resultados experimentais em *benchmarks* abrangentes demonstram que, apesar de seu tamanho compacto, nosso modelo alcança um desempenho competitivo em comparação com as linhas de base existentes com múltiplos bilhões de parâmetros. Essas descobertas validam a eficácia da modelagem de difusão mascarada combinada com o ajuste multietapas para a geração de texto não autorregressiva em turco.
English
Masked Diffusion Language Models (MDLMs) have emerged as a compelling non-autoregressive alternative to standard large language models; however, their application to morphologically rich languages remains limited. In this paper, we introduce Diffutron, a masked diffusion language model specifically designed for Turkish. Our approach leverages a resource-efficient training pipeline, starting with LoRA-based continual pre-training of a multilingual encoder on a large-scale corpus. To enable generative capabilities, we employ a progressive instruction-tuning strategy, sequentially adapting the model on general and task-specific instruction sets. Experimental results across comprehensive benchmarks demonstrate that, despite its compact size, our model achieves competitive performance compared to existing multi-billion-parameter baselines. These findings validate the effectiveness of masked diffusion modeling combined with multi-stage tuning for non-autoregressive text generation in Turkish.