ChatPaper.aiChatPaper

InstructDiffusion : Une interface de modélisation généraliste pour les tâches visuelles

InstructDiffusion: A Generalist Modeling Interface for Vision Tasks

September 7, 2023
Auteurs: Zigang Geng, Binxin Yang, Tiankai Hang, Chen Li, Shuyang Gu, Ting Zhang, Jianmin Bao, Zheng Zhang, Han Hu, Dong Chen, Baining Guo
cs.AI

Résumé

Nous présentons InstructDiffusion, un cadre unificateur et générique pour aligner les tâches de vision par ordinateur avec des instructions humaines. Contrairement aux approches existantes qui intègrent des connaissances préalables et prédéfinissent l'espace de sortie (par exemple, catégories et coordonnées) pour chaque tâche de vision, nous transformons diverses tâches de vision en un processus intuitif de manipulation d'images dont l'espace de sortie est un espace de pixels flexible et interactif. Concrètement, le modèle est basé sur le processus de diffusion et est entraîné à prédire les pixels selon les instructions de l'utilisateur, comme encadrer en rouge l'épaule gauche de l'homme ou appliquer un masque bleu à la voiture de gauche. InstructDiffusion peut gérer une variété de tâches de vision, y compris des tâches de compréhension (telles que la segmentation et la détection de points clés) et des tâches génératives (telles que l'édition et l'amélioration). Il montre même une capacité à gérer des tâches inédites et surpasse les méthodes précédentes sur de nouveaux ensembles de données. Cela représente une avancée significative vers une interface de modélisation généraliste pour les tâches de vision, faisant progresser l'intelligence artificielle générale dans le domaine de la vision par ordinateur.
English
We present InstructDiffusion, a unifying and generic framework for aligning computer vision tasks with human instructions. Unlike existing approaches that integrate prior knowledge and pre-define the output space (e.g., categories and coordinates) for each vision task, we cast diverse vision tasks into a human-intuitive image-manipulating process whose output space is a flexible and interactive pixel space. Concretely, the model is built upon the diffusion process and is trained to predict pixels according to user instructions, such as encircling the man's left shoulder in red or applying a blue mask to the left car. InstructDiffusion could handle a variety of vision tasks, including understanding tasks (such as segmentation and keypoint detection) and generative tasks (such as editing and enhancement). It even exhibits the ability to handle unseen tasks and outperforms prior methods on novel datasets. This represents a significant step towards a generalist modeling interface for vision tasks, advancing artificial general intelligence in the field of computer vision.
PDF140December 15, 2024