ChatPaper.aiChatPaper

Мультимодальные классификаторы для обнаружения объектов с открытым словарём

Multi-Modal Classifiers for Open-Vocabulary Object Detection

June 8, 2023
Авторы: Prannay Kaul, Weidi Xie, Andrew Zisserman
cs.AI

Аннотация

Цель данной работы — разработка модели для задачи обнаружения объектов с открытым словарем (Open-Vocabulary Object Detection, OVOD), которая способна обнаруживать объекты за пределами набора категорий, представленных на этапе обучения, что позволяет пользователю указывать интересующие категории на этапе вывода без необходимости переобучения модели. Мы используем стандартную архитектуру двухэтапного детектора объектов и исследуем три способа задания новых категорий: с помощью текстовых описаний, с помощью примеров изображений или с использованием комбинации этих двух подходов. Мы вносим три основных вклада: во-первых, мы используем большую языковую модель (LLM) для генерации информативных текстовых описаний классов объектов и создаем мощные текстовые классификаторы; во-вторых, применяем визуальный агрегатор для примеров изображений, который может обрабатывать любое количество изображений на входе, формируя визуальные классификаторы; и в-третьих, предлагаем простой метод для объединения информации из текстовых описаний и примеров изображений, что позволяет создать мультимодальный классификатор. При оценке на сложном бенчмарке LVIS для задачи обнаружения объектов с открытым словарем мы демонстрируем, что: (i) наши текстовые классификаторы превосходят все предыдущие работы в области OVOD; (ii) наши визуальные классификаторы показывают результаты, сопоставимые с текстовыми классификаторами в предыдущих работах; (iii) использование мультимодальных классификаторов дает лучшие результаты, чем использование каждого из подходов по отдельности; и, наконец, (iv) наши текстовые и мультимодальные классификаторы демонстрируют более высокую производительность, чем полностью обученный детектор.
English
The goal of this paper is open-vocabulary object detection (OVOD) x2013 building a model that can detect objects beyond the set of categories seen at training, thus enabling the user to specify categories of interest at inference without the need for model retraining. We adopt a standard two-stage object detector architecture, and explore three ways for specifying novel categories: via language descriptions, via image exemplars, or via a combination of the two. We make three contributions: first, we prompt a large language model (LLM) to generate informative language descriptions for object classes, and construct powerful text-based classifiers; second, we employ a visual aggregator on image exemplars that can ingest any number of images as input, forming vision-based classifiers; and third, we provide a simple method to fuse information from language descriptions and image exemplars, yielding a multi-modal classifier. When evaluating on the challenging LVIS open-vocabulary benchmark we demonstrate that: (i) our text-based classifiers outperform all previous OVOD works; (ii) our vision-based classifiers perform as well as text-based classifiers in prior work; (iii) using multi-modal classifiers perform better than either modality alone; and finally, (iv) our text-based and multi-modal classifiers yield better performance than a fully-supervised detector.
PDF61December 15, 2024