ChatPaper.aiChatPaper

PartCraft: Creazione di Oggetti Creativi tramite Parti

PartCraft: Crafting Creative Objects by Parts

July 5, 2024
Autori: Kam Woh Ng, Xiatian Zhu, Yi-Zhe Song, Tao Xiang
cs.AI

Abstract

Questo articolo promuove il controllo creativo nell'IA generativa visiva consentendo agli utenti di "selezionare". Allontanandoci dai metodi tradizionali basati su testo o schizzi, per la prima volta permettiamo agli utenti di scegliere concetti visivi per parti per le loro attività creative. Il risultato è una generazione fine che cattura con precisione i concetti visivi selezionati, garantendo un risultato complessivamente fedele e plausibile. Per raggiungere questo obiettivo, analizziamo prima gli oggetti in parti attraverso il clustering non supervisionato di feature. Successivamente, codifichiamo le parti in token testuali e introduciamo una perdita di attenzione normalizzata basata sull'entropia che opera su di essi. Questo design della perdita consente al nostro modello di apprendere conoscenze topologiche generiche sulla composizione delle parti degli oggetti e di generalizzare ulteriormente a nuove composizioni di parti per garantire che la generazione appaia complessivamente fedele. Infine, utilizziamo un encoder a collo di bottiglia per proiettare i token delle parti. Questo non solo migliora la fedeltà ma accelera anche l'apprendimento, sfruttando conoscenze condivise e facilitando lo scambio di informazioni tra le istanze. I risultati visivi nell'articolo e nel materiale supplementare dimostrano il potere convincente di PartCraft nel creare creazioni altamente personalizzate e innovative, esemplificate dagli uccelli "affascinanti" e creativi. Il codice è rilasciato su https://github.com/kamwoh/partcraft.
English
This paper propels creative control in generative visual AI by allowing users to "select". Departing from traditional text or sketch-based methods, we for the first time allow users to choose visual concepts by parts for their creative endeavors. The outcome is fine-grained generation that precisely captures selected visual concepts, ensuring a holistically faithful and plausible result. To achieve this, we first parse objects into parts through unsupervised feature clustering. Then, we encode parts into text tokens and introduce an entropy-based normalized attention loss that operates on them. This loss design enables our model to learn generic prior topology knowledge about object's part composition, and further generalize to novel part compositions to ensure the generation looks holistically faithful. Lastly, we employ a bottleneck encoder to project the part tokens. This not only enhances fidelity but also accelerates learning, by leveraging shared knowledge and facilitating information exchange among instances. Visual results in the paper and supplementary material showcase the compelling power of PartCraft in crafting highly customized, innovative creations, exemplified by the "charming" and creative birds. Code is released at https://github.com/kamwoh/partcraft.
PDF62November 28, 2024