Articoli di ricerca IA selezionati quotidianamente con traduzioni
La personalizzazione è emersa come un aspetto di rilievo nel campo dell'IA generativa, consentendo la sintesi di individui in contesti e stili diversi, mantenendo un'elevata fedeltà alle loro identità. Tuttavia, il processo di personalizzazione presenta sfide intrinseche in termini di tempo e requisiti di memoria. Il fine-tuning di ciascun modello personalizzato richiede un notevole investimento di tempo GPU, e la memorizzazione di un modello personalizzato per soggetto può essere impegnativa in termini di capacità di archiviazione. Per superare queste sfide, proponiamo HyperDreamBooth, un hypernetwork in grado di generare in modo efficiente un piccolo insieme di pesi personalizzati a partire da una singola immagine di una persona. Componendo questi pesi nel modello di diffusione, unitamente a un rapido fine-tuning, HyperDreamBooth può generare il volto di una persona in vari contesti e stili, con dettagli soggettivi di alta qualità, preservando al contempo la conoscenza cruciale del modello riguardo a stili diversi e modifiche semantiche. Il nostro metodo raggiunge la personalizzazione dei volti in circa 20 secondi, 25 volte più veloce di DreamBooth e 125 volte più veloce di Textual Inversion, utilizzando anche una sola immagine di riferimento, con la stessa qualità e diversità di stile di DreamBooth. Inoltre, il nostro metodo produce un modello che è 10.000 volte più piccolo di un normale modello DreamBooth. Pagina del progetto: https://hyperdreambooth.github.io
La personalizzazione da testo a immagine (T2I) consente agli utenti di guidare il processo creativo di generazione di immagini combinando i propri concetti visivi in prompt di linguaggio naturale. Recentemente, le tecniche basate su encoder sono emerse come un nuovo approccio efficace per la personalizzazione T2I, riducendo la necessità di più immagini e tempi di addestramento prolungati. Tuttavia, la maggior parte degli encoder esistenti è limitata a un dominio a classe singola, il che ne ostacola la capacità di gestire concetti diversi. In questo lavoro, proponiamo un metodo agnostico rispetto al dominio che non richiede alcun dataset specializzato o informazioni preliminari sui concetti personalizzati. Introduciamo una nuova tecnica di regolarizzazione basata sul contrasto per mantenere un'elevata fedeltà alle caratteristiche del concetto target, mantenendo al contempo gli embedding previsti vicini alle regioni modificabili dello spazio latente, spingendo i token previsti verso i token CLIP esistenti più vicini. I nostri risultati sperimentali dimostrano l'efficacia del nostro approccio e mostrano come i token appresi siano più semantici rispetto a quelli previsti da modelli non regolarizzati. Ciò porta a una rappresentazione migliore che raggiunge prestazioni all'avanguardia, risultando al contempo più flessibile rispetto ai metodi precedenti.
In questo articolo, presentiamo un approccio innovativo per migliorare la qualità e la coerenza degli output generati da modelli linguistici pre-addestrati su larga scala (LLM). L'auto-coerenza si è rivelata un metodo efficace per prompt con risposte fisse, selezionando la risposta con il maggior numero di voti. In questo lavoro, introduciamo un framework generalizzato per l'auto-coerenza che ne estende l'applicabilità oltre i problemi con risposte fisse. Attraverso simulazioni estensive, dimostriamo che il nostro approccio recupera in modo coerente la generazione ottimale o quasi ottimale da un insieme di candidati. Proponiamo inoltre funzioni di similarità leggere e prive di parametri che mostrano miglioramenti significativi e consistenti in compiti di generazione di codice, autoformalizzazione e riassunto, anche senza accesso alle probabilità logaritmiche dei token. Il nostro metodo comporta un sovraccarico computazionale minimo, non richiedendo modelli di riordinamento aggiuntivi o modifiche al modello esistente.
La generazione di video per lo storytelling visivo può essere un processo tedioso e complesso che tipicamente richiede riprese live-action o rendering di animazioni grafiche. Per superare queste sfide, la nostra idea chiave è sfruttare l'abbondanza di clip video esistenti e sintetizzare un video narrativo coerente personalizzandone gli aspetti visivi. Raggiungiamo questo obiettivo sviluppando un framework composto da due moduli funzionali: (i) Recupero della Struttura del Movimento, che fornisce candidati video con il contesto di scena o movimento desiderato descritto da testi di query, e (ii) Sintesi Video da Testo Guidata dalla Struttura, che genera video allineati alla trama sotto la guida della struttura del movimento e dei prompt testuali. Per il primo modulo, utilizziamo un sistema di recupero video preesistente ed estraiamo le profondità video come struttura del movimento. Per il secondo modulo, proponiamo un modello di generazione video controllabile che offre un controllo flessibile sulla struttura e sui personaggi. I video vengono sintetizzati seguendo la guida strutturale e le istruzioni sull'aspetto. Per garantire la coerenza visiva tra le clip, proponiamo un approccio efficace di personalizzazione del concetto, che consente di specificare le identità dei personaggi desiderati attraverso prompt testuali. Esperimenti estensivi dimostrano che il nostro approccio presenta vantaggi significativi rispetto a varie baseline esistenti.