PartCraft: Kreative Objekte durch Teile herstellen
PartCraft: Crafting Creative Objects by Parts
July 5, 2024
Autoren: Kam Woh Ng, Xiatian Zhu, Yi-Zhe Song, Tao Xiang
cs.AI
Zusammenfassung
Dieses Papier fördert die kreative Steuerung in der generativen visuellen KI, indem es Benutzern ermöglicht, "auszuwählen". Abweichend von traditionellen text- oder skizzenbasierten Methoden erlauben wir Benutzern erstmals, visuelle Konzepte nach Teilen für ihre kreativen Bestrebungen auszuwählen. Das Ergebnis ist eine feinkörnige Generierung, die ausgewählte visuelle Konzepte präzise erfasst und so ein ganzheitlich treues und plausibles Ergebnis gewährleistet. Um dies zu erreichen, zerlegen wir zunächst Objekte in Teile durch unüberwachtes Merkmalsclustering. Anschließend codieren wir die Teile in Text-Token und führen einen auf Entropie basierenden normalisierten Aufmerksamkeitsverlust ein, der auf sie wirkt. Dieses Verlustdesign ermöglicht es unserem Modell, generisches Topologie-Wissen über die Teilezusammensetzung von Objekten zu erlernen und sich weiter auf neuartige Teilezusammensetzungen zu verallgemeinern, um sicherzustellen, dass die Generierung ganzheitlich treu aussieht. Schließlich verwenden wir einen Engpass-Encoder, um die Teil-Token zu projizieren. Dies verbessert nicht nur die Treue, sondern beschleunigt auch das Lernen, indem gemeinsames Wissen genutzt und der Informationsaustausch zwischen Instanzen erleichtert wird. Visuelle Ergebnisse im Papier und im ergänzenden Material zeigen die überzeugende Kraft von PartCraft bei der Gestaltung hochgradig individueller, innovativer Kreationen, wie sie beispielhaft durch die "charmanten" und kreativen Vögel dargestellt werden. Der Code ist unter https://github.com/kamwoh/partcraft verfügbar.
English
This paper propels creative control in generative visual AI by allowing users
to "select". Departing from traditional text or sketch-based methods, we for
the first time allow users to choose visual concepts by parts for their
creative endeavors. The outcome is fine-grained generation that precisely
captures selected visual concepts, ensuring a holistically faithful and
plausible result. To achieve this, we first parse objects into parts through
unsupervised feature clustering. Then, we encode parts into text tokens and
introduce an entropy-based normalized attention loss that operates on them.
This loss design enables our model to learn generic prior topology knowledge
about object's part composition, and further generalize to novel part
compositions to ensure the generation looks holistically faithful. Lastly, we
employ a bottleneck encoder to project the part tokens. This not only enhances
fidelity but also accelerates learning, by leveraging shared knowledge and
facilitating information exchange among instances. Visual results in the paper
and supplementary material showcase the compelling power of PartCraft in
crafting highly customized, innovative creations, exemplified by the "charming"
and creative birds. Code is released at https://github.com/kamwoh/partcraft.Summary
AI-Generated Summary