ChatPaper.aiChatPaper

3D-Kongelierung: 3D-bewusste Bildausrichtung in freier Wildbahn

3D Congealing: 3D-Aware Image Alignment in the Wild

April 2, 2024
Autoren: Yunzhi Zhang, Zizhang Li, Amit Raj, Andreas Engelhardt, Yuanzhen Li, Tingbo Hou, Jiajun Wu, Varun Jampani
cs.AI

Zusammenfassung

Wir schlagen 3D Congealing vor, ein neuartiges Problem der 3D-bewussten Ausrichtung für 2D-Bilder, die semantisch ähnliche Objekte erfassen. Angesichts einer Sammlung von unbeschrifteten Internetbildern ist unser Ziel, die gemeinsamen semantischen Teile aus den Eingaben zuzuordnen und das Wissen aus 2D-Bildern in einen gemeinsamen 3D-Standardraum zu aggregieren. Wir stellen einen allgemeinen Rahmen vor, der die Aufgabe ohne Annahme von Formvorlagen, Posen oder Kameraparametern angeht. Im Kern steht eine kanonische 3D-Repräsentation, die geometrische und semantische Informationen umfasst. Der Rahmen optimiert die kanonische Repräsentation zusammen mit der Pose für jedes Eingabebild und einer pro-Bild-Koordinatenkarte, die 2D-Pixekoordinaten in den 3D-Standardrahmen verformt, um das Formabgleichen zu berücksichtigen. Das Optimierungsverfahren verschmilzt Vorwissen aus einem vortrainierten Bildgenerierungsmodell und semantische Informationen aus Eingabebildern. Ersteres bietet starke Wissensführung für diese unterbeschränkte Aufgabe, während Letzteres die notwendigen Informationen liefert, um die Trainingsdatenvoreingenommenheit des vortrainierten Modells zu mildern. Unser Rahmen kann für verschiedene Aufgaben wie Korrespondenzabgleich, Posenabschätzung und Bildbearbeitung verwendet werden und erzielt starke Ergebnisse auf realen Bilddatensätzen unter herausfordernden Beleuchtungsbedingungen und auf in freier Wildbahn gesammelten Online-Bildsammlungen.
English
We propose 3D Congealing, a novel problem of 3D-aware alignment for 2D images capturing semantically similar objects. Given a collection of unlabeled Internet images, our goal is to associate the shared semantic parts from the inputs and aggregate the knowledge from 2D images to a shared 3D canonical space. We introduce a general framework that tackles the task without assuming shape templates, poses, or any camera parameters. At its core is a canonical 3D representation that encapsulates geometric and semantic information. The framework optimizes for the canonical representation together with the pose for each input image, and a per-image coordinate map that warps 2D pixel coordinates to the 3D canonical frame to account for the shape matching. The optimization procedure fuses prior knowledge from a pre-trained image generative model and semantic information from input images. The former provides strong knowledge guidance for this under-constraint task, while the latter provides the necessary information to mitigate the training data bias from the pre-trained model. Our framework can be used for various tasks such as correspondence matching, pose estimation, and image editing, achieving strong results on real-world image datasets under challenging illumination conditions and on in-the-wild online image collections.

Summary

AI-Generated Summary

PDF101November 26, 2024