ChatPaper.aiChatPaper

RULER: Каков Реальный Размер Контекста Ваших Языковых Моделей с Длинным Контекстом?

RULER: What's the Real Context Size of Your Long-Context Language Models?

April 9, 2024
Авторы: Cheng-Ping Hsieh, Simeng Sun, Samuel Kriman, Shantanu Acharya, Dima Rekesh, Fei Jia, Boris Ginsburg
cs.AI

Аннотация

Тест "иголка в стоге сена" (NIAH), который проверяет способность извлечь кусок информации («иголку») из длинных текстов-отвлекателей («стог сена»), был широко принят для оценки языковых моделей с длинным контекстом (LMs). Однако этот простой тест на основе извлечения информации указывает только на поверхностную форму понимания длинного контекста. Для более всесторонней оценки LM с длинным контекстом мы создали новый синтетический бенчмарк RULER с гибкими конфигурациями для настраиваемой длины последовательности и сложности задачи. RULER расширяет базовый тест NIAH, включая вариации с различными типами и количеством иголок. Более того, RULER вводит новые категории задач многократного отслеживания и агрегации для проверки поведения за пределами поиска из контекста. Мы оценили десять LM с длинным контекстом на 13 представительных задачах в RULER. Несмотря на почти идеальную точность в базовом тесте NIAH, все модели показывают значительное снижение производительности при увеличении длины контекста. Хотя все эти модели заявляют размер контекста в 32K токенов или более, только четыре модели (GPT-4, Command-R, Yi-34B и Mixtral) могут сохранить удовлетворительную производительность при длине 32K. Наш анализ Yi-34B, поддерживающей длину контекста 200K, показывает большой потенциал для улучшения при увеличении длины ввода и сложности задачи. Мы открыто предоставляем RULER для стимулирования всесторонней оценки LM с длинным контекстом.
English
The needle-in-a-haystack (NIAH) test, which examines the ability to retrieve a piece of information (the "needle") from long distractor texts (the "haystack"), has been widely adopted to evaluate long-context language models (LMs). However, this simple retrieval-based test is indicative of only a superficial form of long-context understanding. To provide a more comprehensive evaluation of long-context LMs, we create a new synthetic benchmark RULER with flexible configurations for customized sequence length and task complexity. RULER expands upon the vanilla NIAH test to encompass variations with diverse types and quantities of needles. Moreover, RULER introduces new task categories multi-hop tracing and aggregation to test behaviors beyond searching from context. We evaluate ten long-context LMs with 13 representative tasks in RULER. Despite achieving nearly perfect accuracy in the vanilla NIAH test, all models exhibit large performance drops as the context length increases. While these models all claim context sizes of 32K tokens or greater, only four models (GPT-4, Command-R, Yi-34B, and Mixtral) can maintain satisfactory performance at the length of 32K. Our analysis of Yi-34B, which supports context length of 200K, reveals large room for improvement as we increase input length and task complexity. We open source RULER to spur comprehensive evaluation of long-context LMs.

Summary

AI-Generated Summary

PDF383December 15, 2024