ChatPaper.aiChatPaper

Beschreibe Alles: Detaillierte lokalisierte Bild- und Videobeschreibung

Describe Anything: Detailed Localized Image and Video Captioning

April 22, 2025
Autoren: Long Lian, Yifan Ding, Yunhao Ge, Sifei Liu, Hanzi Mao, Boyi Li, Marco Pavone, Ming-Yu Liu, Trevor Darrell, Adam Yala, Yin Cui
cs.AI

Zusammenfassung

Das Erzeugen detaillierter und präziser Beschreibungen für spezifische Regionen in Bildern und Videos bleibt eine grundlegende Herausforderung für Vision-Sprach-Modelle. Wir stellen das Describe Anything Model (DAM) vor, ein Modell, das für detaillierte lokalisierte Bildbeschreibung (Detailed Localized Captioning, DLC) entwickelt wurde. DAM bewahrt sowohl lokale Details als auch den globalen Kontext durch zwei zentrale Innovationen: einen fokalen Prompt, der eine hochauflösende Kodierung der Zielregionen sicherstellt, und ein lokalisiertes Vision-Backbone, das präzise Lokalisierung mit ihrem breiteren Kontext integriert. Um den Mangel an hochwertigen DLC-Daten zu bewältigen, schlagen wir eine halbüberwachte Lernmethode (Semi-supervised Learning, SSL) basierte Datenpipeline (DLC-SDP) vor. DLC-SDP beginnt mit bestehenden Segmentierungsdatensätzen und erweitert diese auf unmarkierte Web-Bilder mithilfe von SSL. Wir führen DLC-Bench ein, einen Benchmark, der entwickelt wurde, um DLC ohne Bezugnahme auf Referenzbeschreibungen zu bewerten. DAM setzt neue Maßstäbe auf 7 Benchmarks, die sich über Schlüsselwort-, Phrasen- und detaillierte mehrsätzige lokalisierte Bild- und Videobeschreibungen erstrecken.
English
Generating detailed and accurate descriptions for specific regions in images and videos remains a fundamental challenge for vision-language models. We introduce the Describe Anything Model (DAM), a model designed for detailed localized captioning (DLC). DAM preserves both local details and global context through two key innovations: a focal prompt, which ensures high-resolution encoding of targeted regions, and a localized vision backbone, which integrates precise localization with its broader context. To tackle the scarcity of high-quality DLC data, we propose a Semi-supervised learning (SSL)-based Data Pipeline (DLC-SDP). DLC-SDP starts with existing segmentation datasets and expands to unlabeled web images using SSL. We introduce DLC-Bench, a benchmark designed to evaluate DLC without relying on reference captions. DAM sets new state-of-the-art on 7 benchmarks spanning keyword-level, phrase-level, and detailed multi-sentence localized image and video captioning.

Summary

AI-Generated Summary

PDF584April 23, 2025