ChatPaper.aiChatPaper

Parigi: Un modello di diffusione open-weight addestrato in modo decentralizzato

Paris: A Decentralized Trained Open-Weight Diffusion Model

October 3, 2025
Autori: Zhiying Jiang, Raihan Seraj, Marcos Villagra, Bidhan Roy
cs.AI

Abstract

Presentiamo Paris, il primo modello di diffusione rilasciato pubblicamente e pre-addestrato interamente attraverso calcolo decentralizzato. Paris dimostra che è possibile ottenere una generazione di immagini da testo di alta qualità senza l'uso di infrastrutture centralizzate. Paris è disponibile per uso sia di ricerca che commerciale. Lo sviluppo di Paris ha richiesto l'implementazione da zero del nostro framework Distributed Diffusion Training. Il modello è composto da 8 modelli di diffusione esperti (ciascuno con 129M-605M parametri) addestrati in completo isolamento, senza sincronizzazione di gradienti, parametri o attivazioni intermedie. Invece di richiedere aggiornamenti sincronizzati dei gradienti su migliaia di GPU, abbiamo suddiviso i dati in cluster semanticamente coerenti, dove ciascun esperto ottimizza in modo indipendente il proprio sottoinsieme, approssimando collettivamente l'intera distribuzione. Un router transformer leggero seleziona dinamicamente gli esperti appropriati durante l'inferenza, raggiungendo una qualità di generazione paragonabile a quella dei modelli centralizzati. L'eliminazione della sincronizzazione consente l'addestramento su hardware eterogeneo senza interconnessioni specializzate. La validazione empirica conferma che l'addestramento decentralizzato di Paris mantiene la qualità della generazione, eliminando la necessità di cluster GPU dedicati per modelli di diffusione su larga scala. Paris raggiunge questo risultato utilizzando 14 volte meno dati di addestramento e 16 volte meno risorse computazionali rispetto al precedente baseline decentralizzato.
English
We present Paris, the first publicly released diffusion model pre-trained entirely through decentralized computation. Paris demonstrates that high-quality text-to-image generation can be achieved without centrally coordinated infrastructure. Paris is open for research and commercial use. Paris required implementing our Distributed Diffusion Training framework from scratch. The model consists of 8 expert diffusion models (129M-605M parameters each) trained in complete isolation with no gradient, parameter, or intermediate activation synchronization. Rather than requiring synchronized gradient updates across thousands of GPUs, we partition data into semantically coherent clusters where each expert independently optimizes its subset while collectively approximating the full distribution. A lightweight transformer router dynamically selects appropriate experts at inference, achieving generation quality comparable to centrally coordinated baselines. Eliminating synchronization enables training on heterogeneous hardware without specialized interconnects. Empirical validation confirms that Paris's decentralized training maintains generation quality while removing the dedicated GPU cluster requirement for large-scale diffusion models. Paris achieves this using 14times less training data and 16times less compute than the prior decentralized baseline.
PDF22October 7, 2025