ChatPaper.aiChatPaper

SHAP-EDITOR: Instructiegestuurd latent 3D-bewerken in seconden

SHAP-EDITOR: Instruction-guided Latent 3D Editing in Seconds

December 14, 2023
Auteurs: Minghao Chen, Junyu Xie, Iro Laina, Andrea Vedaldi
cs.AI

Samenvatting

Wij stellen een nieuw feed-forward 3D-bewerkingsframework voor, genaamd Shap-Editor. Eerder onderzoek naar het bewerken van 3D-objecten richtte zich voornamelijk op het bewerken van individuele objecten door gebruik te maken van bestaande 2D-afbeeldingsbewerkingsnetwerken. Dit wordt bereikt via een proces genaamd distillatie, waarbij kennis wordt overgedragen van het 2D-netwerk naar 3D-assets. Distillatie vereist minstens tientallen minuten per asset om bevredigende bewerkingsresultaten te behalen, en is daardoor niet erg praktisch. In tegenstelling daarmee vragen wij ons af of 3D-bewerking direct kan worden uitgevoerd door een feed-forward netwerk, zonder test-time optimalisatie. In het bijzonder stellen wij de hypothese dat bewerking aanzienlijk kan worden vereenvoudigd door eerst 3D-objecten te coderen in een geschikte latente ruimte. Wij valideren deze hypothese door voort te bouwen op de latente ruimte van Shap-E. Wij tonen aan dat directe 3D-bewerking in deze ruimte mogelijk en efficiënt is door een feed-forward bewerkingsnetwerk te bouwen dat slechts ongeveer één seconde per bewerking vereist. Onze experimenten laten zien dat Shap-Editor goed generaliseert naar zowel in-distributie als out-of-distributie 3D-assets met verschillende prompts, en vergelijkbare prestaties vertoont met methoden die test-time optimalisatie uitvoeren voor elk bewerkt exemplaar.
English
We propose a novel feed-forward 3D editing framework called Shap-Editor. Prior research on editing 3D objects primarily concentrated on editing individual objects by leveraging off-the-shelf 2D image editing networks. This is achieved via a process called distillation, which transfers knowledge from the 2D network to 3D assets. Distillation necessitates at least tens of minutes per asset to attain satisfactory editing results, and is thus not very practical. In contrast, we ask whether 3D editing can be carried out directly by a feed-forward network, eschewing test-time optimisation. In particular, we hypothesise that editing can be greatly simplified by first encoding 3D objects in a suitable latent space. We validate this hypothesis by building upon the latent space of Shap-E. We demonstrate that direct 3D editing in this space is possible and efficient by building a feed-forward editor network that only requires approximately one second per edit. Our experiments show that Shap-Editor generalises well to both in-distribution and out-of-distribution 3D assets with different prompts, exhibiting comparable performance with methods that carry out test-time optimisation for each edited instance.
PDF91December 15, 2024