ChatPaper.aiChatPaper

SafeDiffuser: Pianificazione Sicura con Modelli Probabilistici di Diffusione

SafeDiffuser: Safe Planning with Diffusion Probabilistic Models

May 31, 2023
Autori: Wei Xiao, Tsun-Hsuan Wang, Chuang Gan, Daniela Rus
cs.AI

Abstract

Gli approcci basati su modelli di diffusione hanno dimostrato potenziale nella pianificazione guidata dai dati, ma non offrono garanzie di sicurezza, rendendo difficile la loro applicazione in contesti critici. Per affrontare queste sfide, proponiamo un nuovo metodo, chiamato SafeDiffuser, che assicura che i modelli probabilistici di diffusione soddisfino specifiche utilizzando una classe di funzioni barriera di controllo. L'idea chiave del nostro approccio è incorporare l'invarianza di diffusione a tempo finito proposta nel processo di denoising della diffusione, consentendo una generazione di dati affidabile. Inoltre, dimostriamo che il nostro metodo di invarianza di diffusione a tempo finito attraverso modelli generativi non solo mantiene le prestazioni di generalizzazione, ma crea anche robustezza nella generazione di dati sicuri. Testiamo il nostro metodo su una serie di compiti di pianificazione sicura, tra cui la generazione di percorsi in labirinti, la locomozione di robot a gambe e la manipolazione in spazio 3D, con risultati che mostrano i vantaggi in termini di robustezza e garanzie rispetto ai modelli di diffusione tradizionali.
English
Diffusion model-based approaches have shown promise in data-driven planning, but there are no safety guarantees, thus making it hard to be applied for safety-critical applications. To address these challenges, we propose a new method, called SafeDiffuser, to ensure diffusion probabilistic models satisfy specifications by using a class of control barrier functions. The key idea of our approach is to embed the proposed finite-time diffusion invariance into the denoising diffusion procedure, which enables trustworthy diffusion data generation. Moreover, we demonstrate that our finite-time diffusion invariance method through generative models not only maintains generalization performance but also creates robustness in safe data generation. We test our method on a series of safe planning tasks, including maze path generation, legged robot locomotion, and 3D space manipulation, with results showing the advantages of robustness and guarantees over vanilla diffusion models.
PDF10February 8, 2026