LongGenBench: Benchmark für die Generierung von LangkontextenLongGenBench: Long-context Generation Benchmark
Aktuelle Benchmarks für lange Kontexte konzentrieren sich hauptsächlich auf tests basierend auf Rückgewinnung, die von Large Language Models (LLMs) verlangen, spezifische Informationen innerhalb umfangreicher Eingangskontexte zu lokalisieren, wie beispielsweise der Nadel-im-Heuhaufen (NIAH) Benchmark. Die Generierung von langem Kontext bezieht sich auf die Fähigkeit eines Sprachmodells, kohärenten und kontextuell genauen Text zu erzeugen, der sich über umfangreiche Passagen oder Dokumente erstreckt. Während aktuelle Studien eine starke Leistung bei NIAH und anderen auf Rückgewinnung basierenden Benchmarks für langen Kontext zeigen, gibt es einen signifikanten Mangel an Benchmarks zur Bewertung der Fähigkeiten zur Generierung von langem Kontext. Um diese Lücke zu schließen und eine umfassende Bewertung anzubieten, stellen wir einen synthetischen Benchmark vor, LongGenBench, der flexible Konfigurationen von benutzerdefinierten Generierungskontextlängen ermöglicht. LongGenBench geht über traditionelle Benchmarks hinaus, indem das Format der Fragen neu gestaltet wird und verlangt wird, dass LLMs mit einer einzigen, kohärenten langen Kontextantwort antworten. Nach umfangreicher Evaluation mit LongGenBench beobachten wir, dass: (1) sowohl API-zugängliche als auch Open-Source-Modelle eine Leistungsverschlechterung in Szenarien der Generierung von langem Kontext aufweisen, die von 1,2 % bis 47,1 % reicht; (2) verschiedene Serien von LLMs zeigen unterschiedliche Trends der Leistungsverschlechterung, wobei das Gemini-1.5-Flash-Modell die geringste Verschlechterung unter den API-zugänglichen Modellen aufweist und die Qwen2-Serie die geringste Verschlechterung in LongGenBench unter den Open-Source-Modellen zeigt.