Mais Inteligente, Melhor, Mais Rápido, Mais Longo: Um Codificador Bidirecional Moderno para
Ajuste Fino e Inferência Rápidos, Eficientes em Memória e com Contexto LongoSmarter, Better, Faster, Longer: A Modern Bidirectional Encoder for
Fast, Memory Efficient, and Long Context Finetuning and Inference
Modelos de transformer apenas com codificador, como o BERT, oferecem uma ótima relação entre desempenho e tamanho para tarefas de recuperação e classificação em comparação com modelos apenas com decodificador maiores. Apesar de ser o principal trabalho de inúmeros pipelines de produção, houve melhorias de Pareto limitadas no BERT desde o seu lançamento. Neste artigo, apresentamos o ModernBERT, trazendo otimizações de modelo modernas para modelos apenas com codificador e representando uma melhoria de Pareto significativa em relação a codificadores mais antigos. Treinados em 2 trilhões de tokens com um comprimento de sequência nativo de 8192, os modelos ModernBERT apresentam resultados de ponta em uma ampla gama de avaliações que abrangem diversas tarefas de classificação e recuperação de vetores únicos e múltiplos em diferentes domínios (incluindo código). Além do forte desempenho downstream, o ModernBERT também é o codificador mais eficiente em termos de velocidade e memória, sendo projetado para inferência em GPUs comuns.