ChatPaper.aiChatPaper

LLäMmlein: Modelos de Linguagem Compactos e Competitivos Apenas em Alemão Criados do Zero

LLäMmlein: Compact and Competitive German-Only Language Models from Scratch

November 17, 2024
Autores: Jan Pfister, Julia Wunderle, Andreas Hotho
cs.AI

Resumo

Criamos dois modelos de decodificador exclusivamente em alemão, LL\"aMmlein 120M e 1B, de forma transparente a partir do zero e os publicamos, juntamente com os dados de treinamento, para a comunidade de pesquisa em PNL em alemão usar. O treinamento do modelo envolveu várias etapas-chave, incluindo extensa pré-processamento de dados, a criação de um tokenizador personalizado em alemão, o próprio treinamento, bem como a avaliação dos modelos finais em vários benchmarks. Ao longo do processo de treinamento, vários pontos de verificação foram salvos e analisados usando o benchmark SuperGLEBer para monitorar a dinâmica de aprendizado dos modelos. Em comparação com os modelos de última geração no benchmark SuperGLEBer, ambos os modelos LL\"aMmlein tiveram um desempenho competitivo, consistentemente igualando ou superando modelos com tamanhos de parâmetros semelhantes. Os resultados mostram que a qualidade dos modelos aumenta com o tamanho conforme esperado, mas melhorias de desempenho em algumas tarefas atingiram um platô cedo, oferecendo insights valiosos sobre alocação de recursos para o desenvolvimento futuro de modelos.
English
We create two German-only decoder models, LL\"aMmlein 120M and 1B, transparently from scratch and publish them, along with the training data, for the German NLP research community to use. The model training involved several key steps, including extensive data preprocessing, the creation of a custom German tokenizer, the training itself, as well as the evaluation of the final models on various benchmarks. Throughout the training process, multiple checkpoints were saved and analyzed using the SuperGLEBer benchmark to monitor the models' learning dynamics. Compared to state-of-the-art models on the SuperGLEBer benchmark, both LL\"aMmlein models performed competitively, consistently matching or surpassing models with similar parameter sizes. The results show that the models' quality scales with size as expected, but performance improvements on some tasks plateaued early, offering valuable insights into resource allocation for future model development.

Summary

AI-Generated Summary

PDF83November 19, 2024