ChatPaper.aiChatPaper

Orient Anything V2: Vereinheitlichung des Verständnisses von Ausrichtung und Rotation

Orient Anything V2: Unifying Orientation and Rotation Understanding

January 9, 2026
papers.authors: Zehan Wang, Ziang Zhang, Jiayang Xu, Jialei Wang, Tianyu Pang, Chao Du, HengShuang Zhao, Zhou Zhao
cs.AI

papers.abstract

Diese Arbeit stellt Orient Anything V2 vor, ein erweitertes Foundation-Modell für das einheitliche Verständnis der 3D-Orientierung und -Rotation von Objekten aus einzelnen oder gepaarten Bildern. Aufbauend auf Orient Anything V1, das die Orientierung über eine einzige eindeutige Vorderseite definiert, erweitert V2 diese Fähigkeit, um Objekte mit diversen Rotationssymmetrien zu handhaben und relative Rotationen direkt zu schätzen. Diese Verbesserungen werden durch vier zentrale Innovationen ermöglicht: 1) Skalierbare 3D-Assets, die durch generative Modelle synthetisiert werden und eine breite Abdeckung von Kategorien sowie eine ausgeglichene Datenverteilung gewährleisten; 2) Ein effizientes, modellgestütztes Annotationssystem, das robust 0 bis N gültige Vorderseiten für jedes Objekt identifiziert; 3) Ein symmetrieawarees, periodisches Verteilungsanpassungsziel, das alle plausiblen vorderseitigen Orientierungen erfasst und die Rotationssymmetrie von Objekten effektiv modelliert; 4) Eine Multi-Frame-Architektur, die relative Objektrotationen direkt vorhersagt. Umfangreiche Experimente zeigen, dass Orient Anything V2 state-of-the-art Zero-Shot-Leistungen in den Bereichen Orientierungsschätzung, 6DoF-Posenschätzung und Objektsymmetrieerkennung über 11 weit verbreitete Benchmarks hinweg erzielt. Das Modell demonstriert eine starke Generalisierungsfähigkeit und erweitert die Anwendbarkeit der Orientierungsschätzung für diverse Downstream-Aufgaben signifikant.
English
This work presents Orient Anything V2, an enhanced foundation model for unified understanding of object 3D orientation and rotation from single or paired images. Building upon Orient Anything V1, which defines orientation via a single unique front face, V2 extends this capability to handle objects with diverse rotational symmetries and directly estimate relative rotations. These improvements are enabled by four key innovations: 1) Scalable 3D assets synthesized by generative models, ensuring broad category coverage and balanced data distribution; 2) An efficient, model-in-the-loop annotation system that robustly identifies 0 to N valid front faces for each object; 3) A symmetry-aware, periodic distribution fitting objective that captures all plausible front-facing orientations, effectively modeling object rotational symmetry; 4) A multi-frame architecture that directly predicts relative object rotations. Extensive experiments show that Orient Anything V2 achieves state-of-the-art zero-shot performance on orientation estimation, 6DoF pose estimation, and object symmetry recognition across 11 widely used benchmarks. The model demonstrates strong generalization, significantly broadening the applicability of orientation estimation in diverse downstream tasks.
PDF71January 13, 2026