ChatPaper.aiChatPaper

Objekterkennung als Vorhersage des nächsten Tokens

Object Recognition as Next Token Prediction

December 4, 2023
Autoren: Kaiyu Yue, Bor-Chun Chen, Jonas Geiping, Hengduo Li, Tom Goldstein, Ser-Nam Lim
cs.AI

Zusammenfassung

Wir stellen einen Ansatz vor, der Objekterkennung als Vorhersage des nächsten Tokens formuliert. Die Idee besteht darin, einen Sprachdecoder anzuwenden, der autoregressiv Texttokens aus Bild-Einbettungen vorhersagt, um Labels zu bilden. Um diesen Vorhersageprozess in der Autoregression zu verankern, passen wir eine nicht-kausale Aufmerksamkeitsmaske für den Decoder an, die zwei Schlüsselmerkmale integriert: die Modellierung von Tokens aus verschiedenen Labels als unabhängig und die Behandlung von Bildtokens als Präfix. Dieser Maskierungsmechanismus inspiriert eine effiziente Methode – das One-Shot-Sampling –, um Tokens mehrerer Labels parallel zu sammeln und die generierten Labels während der Inferenz nach ihren Wahrscheinlichkeiten zu sortieren. Um die Effizienz weiter zu steigern, schlagen wir eine einfache Strategie vor, um einen kompakten Decoder zu konstruieren, indem einfach die Zwischenblöcke eines vortrainierten Sprachmodells verworfen werden. Dieser Ansatz führt zu einem Decoder, der die Leistung des vollständigen Modells erreicht, dabei jedoch deutlich effizienter ist. Der Code ist unter https://github.com/kaiyuyue/nxtp verfügbar.
English
We present an approach to pose object recognition as next token prediction. The idea is to apply a language decoder that auto-regressively predicts the text tokens from image embeddings to form labels. To ground this prediction process in auto-regression, we customize a non-causal attention mask for the decoder, incorporating two key features: modeling tokens from different labels to be independent, and treating image tokens as a prefix. This masking mechanism inspires an efficient method - one-shot sampling - to simultaneously sample tokens of multiple labels in parallel and rank generated labels by their probabilities during inference. To further enhance the efficiency, we propose a simple strategy to construct a compact decoder by simply discarding the intermediate blocks of a pretrained language model. This approach yields a decoder that matches the full model's performance while being notably more efficient. The code is available at https://github.com/kaiyuyue/nxtp
PDF142December 15, 2024