PartCraft: Creazione di Oggetti Creativi tramite Parti
PartCraft: Crafting Creative Objects by Parts
July 5, 2024
Autori: Kam Woh Ng, Xiatian Zhu, Yi-Zhe Song, Tao Xiang
cs.AI
Abstract
Questo articolo promuove il controllo creativo nell'IA generativa visiva consentendo agli utenti di "selezionare". Allontanandoci dai metodi tradizionali basati su testo o schizzi, per la prima volta permettiamo agli utenti di scegliere concetti visivi per parti per le loro attività creative. Il risultato è una generazione fine che cattura con precisione i concetti visivi selezionati, garantendo un risultato complessivamente fedele e plausibile. Per raggiungere questo obiettivo, analizziamo prima gli oggetti in parti attraverso il clustering non supervisionato di feature. Successivamente, codifichiamo le parti in token testuali e introduciamo una perdita di attenzione normalizzata basata sull'entropia che opera su di essi. Questo design della perdita consente al nostro modello di apprendere conoscenze topologiche generiche sulla composizione delle parti degli oggetti e di generalizzare ulteriormente a nuove composizioni di parti per garantire che la generazione appaia complessivamente fedele. Infine, utilizziamo un encoder a collo di bottiglia per proiettare i token delle parti. Questo non solo migliora la fedeltà ma accelera anche l'apprendimento, sfruttando conoscenze condivise e facilitando lo scambio di informazioni tra le istanze. I risultati visivi nell'articolo e nel materiale supplementare dimostrano il potere convincente di PartCraft nel creare creazioni altamente personalizzate e innovative, esemplificate dagli uccelli "affascinanti" e creativi. Il codice è rilasciato su https://github.com/kamwoh/partcraft.
English
This paper propels creative control in generative visual AI by allowing users
to "select". Departing from traditional text or sketch-based methods, we for
the first time allow users to choose visual concepts by parts for their
creative endeavors. The outcome is fine-grained generation that precisely
captures selected visual concepts, ensuring a holistically faithful and
plausible result. To achieve this, we first parse objects into parts through
unsupervised feature clustering. Then, we encode parts into text tokens and
introduce an entropy-based normalized attention loss that operates on them.
This loss design enables our model to learn generic prior topology knowledge
about object's part composition, and further generalize to novel part
compositions to ensure the generation looks holistically faithful. Lastly, we
employ a bottleneck encoder to project the part tokens. This not only enhances
fidelity but also accelerates learning, by leveraging shared knowledge and
facilitating information exchange among instances. Visual results in the paper
and supplementary material showcase the compelling power of PartCraft in
crafting highly customized, innovative creations, exemplified by the "charming"
and creative birds. Code is released at https://github.com/kamwoh/partcraft.