ChatPaper.aiChatPaper

RULER: Qual é o Tamanho Real do Contexto dos Seus Modelos de Linguagem de Contexto Longo?

RULER: What's the Real Context Size of Your Long-Context Language Models?

April 9, 2024
Autores: Cheng-Ping Hsieh, Simeng Sun, Samuel Kriman, Shantanu Acharya, Dima Rekesh, Fei Jia, Boris Ginsburg
cs.AI

Resumo

O teste de agulha no palheiro (NIAH), que examina a capacidade de recuperar uma informação específica (a "agulha") em meio a textos distratores longos (o "palheiro"), tem sido amplamente adotado para avaliar modelos de linguagem de contexto longo (LMs). No entanto, esse teste simples baseado em recuperação indica apenas uma forma superficial de compreensão de contexto longo. Para fornecer uma avaliação mais abrangente dos LMs de contexto longo, criamos um novo benchmark sintético chamado RULER, com configurações flexíveis para comprimento de sequência e complexidade de tarefas personalizados. O RULER expande o teste NIAH básico para incluir variações com diferentes tipos e quantidades de agulhas. Além disso, o RULER introduz novas categorias de tarefas, como rastreamento multi-hop e agregação, para testar comportamentos que vão além da busca no contexto. Avaliamos dez LMs de contexto longo com 13 tarefas representativas no RULER. Apesar de alcançarem precisão quase perfeita no teste NIAH básico, todos os modelos apresentam quedas significativas de desempenho à medida que o comprimento do contexto aumenta. Embora esses modelos afirmem suportar contextos de 32 mil tokens ou mais, apenas quatro modelos (GPT-4, Command-R, Yi-34B e Mixtral) conseguem manter um desempenho satisfatório no comprimento de 32 mil tokens. Nossa análise do Yi-34B, que suporta comprimento de contexto de 200 mil tokens, revela um grande espaço para melhoria à medida que aumentamos o comprimento da entrada e a complexidade das tarefas. Disponibilizamos o RULER como código aberto para estimular a avaliação abrangente de LMs de contexto longo.
English
The needle-in-a-haystack (NIAH) test, which examines the ability to retrieve a piece of information (the "needle") from long distractor texts (the "haystack"), has been widely adopted to evaluate long-context language models (LMs). However, this simple retrieval-based test is indicative of only a superficial form of long-context understanding. To provide a more comprehensive evaluation of long-context LMs, we create a new synthetic benchmark RULER with flexible configurations for customized sequence length and task complexity. RULER expands upon the vanilla NIAH test to encompass variations with diverse types and quantities of needles. Moreover, RULER introduces new task categories multi-hop tracing and aggregation to test behaviors beyond searching from context. We evaluate ten long-context LMs with 13 representative tasks in RULER. Despite achieving nearly perfect accuracy in the vanilla NIAH test, all models exhibit large performance drops as the context length increases. While these models all claim context sizes of 32K tokens or greater, only four models (GPT-4, Command-R, Yi-34B, and Mixtral) can maintain satisfactory performance at the length of 32K. Our analysis of Yi-34B, which supports context length of 200K, reveals large room for improvement as we increase input length and task complexity. We open source RULER to spur comprehensive evaluation of long-context LMs.
PDF393December 15, 2024