Ferret-UI: Fundiertes Verständnis von mobiler Benutzeroberfläche mit multimodalen LLMsFerret-UI: Grounded Mobile UI Understanding with Multimodal LLMs
Die jüngsten Fortschritte bei multimodalen großen Sprachmodellen (MLLMs) waren bemerkenswert, dennoch zeigen diese allgemeinen MLLMs oft Schwächen in ihrer Fähigkeit, Benutzeroberflächen (UI) effektiv zu verstehen und mit ihnen zu interagieren. In diesem Artikel präsentieren wir Ferret-UI, ein neues MLLM, das speziell für ein verbessertes Verständnis von mobilen UI-Bildschirmen entwickelt wurde und über Verweis-, Verankerungs- und Argumentationsfähigkeiten verfügt. Da UI-Bildschirme in der Regel ein längliches Seitenverhältnis aufweisen und kleinere interessante Objekte (z. B. Symbole, Texte) enthalten als natürliche Bilder, integrieren wir "beliebige Auflösung" auf Ferret, um Details zu vergrößern und verbesserte visuelle Merkmale zu nutzen. Konkret wird jeder Bildschirm basierend auf dem ursprünglichen Seitenverhältnis in 2 Teilbilder unterteilt (horizontale Unterteilung für Hochformatbildschirme und vertikale Unterteilung für Querformatbildschirme). Beide Teilbilder werden separat codiert, bevor sie an die LLMs gesendet werden. Wir sammeln sorgfältig Trainingsdaten aus einer umfangreichen Palette von grundlegenden UI-Aufgaben, wie z. B. Symbolerkennung, Textsuche und Widget-Listung. Diese Daten werden für die Anweisungsverfolgung mit Regionsannotationen formatiert, um präzise Verweise und Verankerungen zu erleichtern. Um die Argumentationsfähigkeit des Modells zu verbessern, erstellen wir zusätzlich einen Datensatz für fortgeschrittene Aufgaben, einschließlich detaillierter Beschreibungen, Wahrnehmungs-/Interaktionsgespräche und Funktionsinferenz. Nach dem Training auf den kuratierten Datensätzen zeigt Ferret-UI ein herausragendes Verständnis von UI-Bildschirmen und die Fähigkeit, offene Anweisungen auszuführen. Zur Modellbewertung etablieren wir einen umfassenden Benchmark, der alle zuvor genannten Aufgaben umfasst. Ferret-UI übertrifft nicht nur die meisten Open-Source-UI-MLLMs, sondern übertrifft auch GPT-4V in allen grundlegenden UI-Aufgaben.