ChatPaper.aiChatPaper

Alineación de Texto, Imágenes y Estructura 3D Token por Token

Aligning Text, Images, and 3D Structure Token-by-Token

June 9, 2025
Autores: Aadarsh Sahoo, Vansh Tibrewal, Georgia Gkioxari
cs.AI

Resumen

Crear máquinas capaces de comprender el mundo en 3D es fundamental para asistir a diseñadores que construyen y editan entornos tridimensionales, así como a robots que navegan e interactúan dentro de un espacio tridimensional. Inspirados por los avances en el modelado de lenguaje e imágenes, investigamos el potencial de los modelos autorregresivos para una nueva modalidad: escenas 3D estructuradas. Con este fin, proponemos un marco unificado de LLM que alinea lenguaje, imágenes y escenas 3D, y proporcionamos un "manual detallado" que describe las decisiones críticas de diseño para lograr un entrenamiento y rendimiento óptimos, abordando preguntas clave relacionadas con la representación de datos, objetivos específicos de modalidad y más. Evaluamos el rendimiento en cuatro tareas principales en 3D —renderizado, reconocimiento, seguimiento de instrucciones y respuesta a preguntas— y en cuatro conjuntos de datos 3D, tanto sintéticos como del mundo real. Extendemos nuestro enfoque para reconstruir formas complejas de objetos 3D enriqueciendo nuestra modalidad 3D con codificaciones cuantizadas de formas, y demostramos la efectividad de nuestro modelo en tareas de reconocimiento de objetos 3D del mundo real. Página del proyecto: https://glab-caltech.github.io/kyvo/
English
Creating machines capable of understanding the world in 3D is essential in assisting designers that build and edit 3D environments and robots navigating and interacting within a three-dimensional space. Inspired by advances in language and image modeling, we investigate the potential of autoregressive models for a new modality: structured 3D scenes. To this end, we propose a unified LLM framework that aligns language, images, and 3D scenes and provide a detailed ''cookbook'' outlining critical design choices for achieving optimal training and performance addressing key questions related to data representation, modality-specific objectives, and more. We evaluate performance across four core 3D tasks -- rendering, recognition, instruction-following, and question-answering -- and four 3D datasets, synthetic and real-world. We extend our approach to reconstruct complex 3D object shapes by enriching our 3D modality with quantized shape encodings, and show our model's effectiveness on real-world 3D object recognition tasks. Project webpage: https://glab-caltech.github.io/kyvo/
PDF192June 11, 2025