ChatPaper.aiChatPaper

Paris : Un modèle de diffusion à poids ouvert entraîné de manière décentralisée

Paris: A Decentralized Trained Open-Weight Diffusion Model

October 3, 2025
papers.authors: Zhiying Jiang, Raihan Seraj, Marcos Villagra, Bidhan Roy
cs.AI

papers.abstract

Nous présentons Paris, le premier modèle de diffusion pré-entraîné entièrement par calcul décentralisé et rendu public. Paris démontre qu’une génération d’images à partir de texte de haute qualité peut être réalisée sans infrastructure centralisée. Paris est ouvert à la recherche et à l’utilisation commerciale. Le développement de Paris a nécessité la mise en œuvre de notre cadre de formation décentralisée Distributed Diffusion Training à partir de zéro. Le modèle est composé de 8 modèles experts de diffusion (129M à 605M de paramètres chacun), entraînés en isolation complète sans synchronisation des gradients, des paramètres ou des activations intermédiaires. Plutôt que de nécessiter des mises à jour synchronisées des gradients sur des milliers de GPU, nous partitionnons les données en clusters sémantiquement cohérents, où chaque expert optimise indépendamment son sous-ensemble tout en approximant collectivement la distribution complète. Un routeur transformateur léger sélectionne dynamiquement les experts appropriés lors de l’inférence, atteignant une qualité de génération comparable aux modèles centralisés. L’élimination de la synchronisation permet un entraînement sur du matériel hétérogène sans interconnexions spécialisées. La validation empirique confirme que l’entraînement décentralisé de Paris maintient la qualité de génération tout en supprimant la nécessité d’un cluster de GPU dédié pour les modèles de diffusion à grande échelle. Paris y parvient en utilisant 14 fois moins de données d’entraînement et 16 fois moins de calcul que le précédent modèle décentralisé de référence.
English
We present Paris, the first publicly released diffusion model pre-trained entirely through decentralized computation. Paris demonstrates that high-quality text-to-image generation can be achieved without centrally coordinated infrastructure. Paris is open for research and commercial use. Paris required implementing our Distributed Diffusion Training framework from scratch. The model consists of 8 expert diffusion models (129M-605M parameters each) trained in complete isolation with no gradient, parameter, or intermediate activation synchronization. Rather than requiring synchronized gradient updates across thousands of GPUs, we partition data into semantically coherent clusters where each expert independently optimizes its subset while collectively approximating the full distribution. A lightweight transformer router dynamically selects appropriate experts at inference, achieving generation quality comparable to centrally coordinated baselines. Eliminating synchronization enables training on heterogeneous hardware without specialized interconnects. Empirical validation confirms that Paris's decentralized training maintains generation quality while removing the dedicated GPU cluster requirement for large-scale diffusion models. Paris achieves this using 14times less training data and 16times less compute than the prior decentralized baseline.
PDF12October 7, 2025