RULER: Wat is de werkelijke contextgrootte van uw taalmodel met lange context?
RULER: What's the Real Context Size of Your Long-Context Language Models?
April 9, 2024
Auteurs: Cheng-Ping Hsieh, Simeng Sun, Samuel Kriman, Shantanu Acharya, Dima Rekesh, Fei Jia, Boris Ginsburg
cs.AI
Samenvatting
De naald-in-een-hooiberg (NIAH) test, die het vermogen onderzoekt om een stuk informatie (de "naald") uit lange afleidende teksten (de "hooiberg") te halen, is breed geadopteerd om lange-context taalmodelen (LMs) te evalueren. Deze eenvoudige op retrieval gebaseerde test geeft echter alleen een oppervlakkige vorm van lange-context begrip aan. Om een uitgebreidere evaluatie van lange-context LMs te bieden, hebben we een nieuwe synthetische benchmark RULER gecreëerd met flexibele configuraties voor aangepaste sequentielengte en taakcomplexiteit. RULER breidt de standaard NIAH test uit om variaties met diverse typen en hoeveelheden naalden te omvatten. Bovendien introduceert RULER nieuwe taakcategorieën zoals multi-hop tracing en aggregatie om gedrag te testen dat verder gaat dan zoeken in de context. We evalueren tien lange-context LMs met 13 representatieve taken in RULER. Ondanks dat ze bijna perfecte nauwkeurigheid behalen in de standaard NIAH test, vertonen alle modellen grote prestatieverminderingen naarmate de contextlengte toeneemt. Hoewel deze modellen allemaal contextgroottes van 32K tokens of meer claimen, kunnen slechts vier modellen (GPT-4, Command-R, Yi-34B en Mixtral) een bevredigende prestatie behouden bij een lengte van 32K. Onze analyse van Yi-34B, dat een contextlengte van 200K ondersteunt, laat grote ruimte voor verbetering zien naarmate we de invoerlengte en taakcomplexiteit verhogen. We maken RULER open source om uitgebreide evaluatie van lange-context LMs te stimuleren.
English
The needle-in-a-haystack (NIAH) test, which examines the ability to retrieve
a piece of information (the "needle") from long distractor texts (the
"haystack"), has been widely adopted to evaluate long-context language models
(LMs). However, this simple retrieval-based test is indicative of only a
superficial form of long-context understanding. To provide a more comprehensive
evaluation of long-context LMs, we create a new synthetic benchmark RULER with
flexible configurations for customized sequence length and task complexity.
RULER expands upon the vanilla NIAH test to encompass variations with diverse
types and quantities of needles. Moreover, RULER introduces new task categories
multi-hop tracing and aggregation to test behaviors beyond searching from
context. We evaluate ten long-context LMs with 13 representative tasks in
RULER. Despite achieving nearly perfect accuracy in the vanilla NIAH test, all
models exhibit large performance drops as the context length increases. While
these models all claim context sizes of 32K tokens or greater, only four models
(GPT-4, Command-R, Yi-34B, and Mixtral) can maintain satisfactory performance
at the length of 32K. Our analysis of Yi-34B, which supports context length of
200K, reveals large room for improvement as we increase input length and task
complexity. We open source RULER to spur comprehensive evaluation of
long-context LMs.