Multimodaler Nadel im Heuhaufen: Bewertung der Fähigkeit von multimodalen großen Sprachmodellen zur Verarbeitung langer KontexteMultimodal Needle in a Haystack: Benchmarking Long-Context Capability of
Multimodal Large Language Models
Multimodale Large Language Models (MLLMs) haben in verschiedenen Anwendungen signifikantes Potenzial gezeigt, was zu großem Interesse von Forschern und Praktikern gleichermaßen geführt hat. Allerdings bleibt eine umfassende Bewertung ihrer Fähigkeiten im Umgang mit langen Kontexten weitgehend unerforscht. Um diese Lücken zu schließen, stellen wir das MultiModal Needle-in-a-haystack (MMNeedle) Benchmark vor, das speziell entwickelt wurde, um die Fähigkeiten von MLLMs im Umgang mit langen Kontexten zu bewerten. Neben multi-bildlichen Eingaben verwenden wir Bildzusammenfügung, um die Eingabekontextlänge weiter zu erhöhen, und entwickeln ein Protokoll zur automatischen Generierung von Labels für die Abrufung auf der Unterbildebene. Im Wesentlichen bewertet MMNeedle MLLMs, indem sie ihre Fähigkeit testet, ein Zielunterbild (Nadel) innerhalb einer Reihe von Bildern (Heuhaufen) anhand textueller Anweisungen und Beschreibungen der Bildinhalte zu lokalisieren. Dieses Setup erfordert ein fortgeschrittenes Verständnis umfangreicher visueller Kontexte und effektive Informationsabrufung innerhalb von Bildereingaben mit langem Kontext. Mit diesem Benchmark bewerten wir modernste MLLMs, die sowohl auf API-basierten als auch auf Open-Source-Modellen basieren. Die Ergebnisse zeigen, dass GPT-4o in langen Kontextszenarien konsistent andere Modelle übertrifft, jedoch unter Halluzinationsproblemen in negativen Beispielen leidet, d.h. wenn Nadeln nicht in den Heuhaufen sind. Unsere umfassende Bewertung von MLLMs im langen Kontext wirft auch Licht auf die beträchtliche Leistungsdifferenz zwischen API-basierten und Open-Source-Modellen. Der gesamte Code, die Daten und Anweisungen zur Reproduktion der Hauptergebnisse sind unter https://github.com/Wang-ML-Lab/multimodal-needle-in-a-haystack verfügbar.