ChatPaper.aiChatPaper

Unilogit: Disapprendimento Robusto per Modelli Linguistici di Grandi Dimensioni mediante Auto-Distillazione a Obiettivo Uniforme

Unilogit: Robust Machine Unlearning for LLMs Using Uniform-Target Self-Distillation

May 9, 2025
Autori: Stefan Vasilev, Christian Herold, Baohao Liao, Seyyed Hadi Hashemi, Shahram Khadivi, Christof Monz
cs.AI

Abstract

Questo articolo introduce Unilogit, un nuovo metodo di auto-distillazione per il machine unlearning nei Large Language Models. Unilogit affronta la sfida di dimenticare selettivamente informazioni specifiche mantenendo l'utilità complessiva del modello, un compito cruciale per conformarsi a normative sulla privacy dei dati come il GDPR. A differenza dei metodi precedenti che si basano su iperparametri statici o sugli output iniziali del modello, Unilogit regola dinamicamente i logit target per ottenere una probabilità uniforme per il token target, sfruttando gli output correnti del modello per ottenere target di auto-distillazione più accurati. Questo approccio non solo elimina la necessità di iperparametri aggiuntivi, ma migliora anche la capacità del modello di approssimare i target ideali. Esperimenti estesi su benchmark pubblici e su un dataset interno di e-commerce dimostrano la performance superiore di Unilogit nel bilanciare gli obiettivi di dimenticare e mantenere, superando metodi all'avanguardia come NPO e UnDIAL. La nostra analisi rivela inoltre la robustezza di Unilogit in vari scenari, evidenziandone l'applicabilità pratica e l'efficacia nel raggiungere un machine unlearning efficace.
English
This paper introduces Unilogit, a novel self-distillation method for machine unlearning in Large Language Models. Unilogit addresses the challenge of selectively forgetting specific information while maintaining overall model utility, a critical task in compliance with data privacy regulations like GDPR. Unlike prior methods that rely on static hyperparameters or starting model outputs, Unilogit dynamically adjusts target logits to achieve a uniform probability for the target token, leveraging the current model's outputs for more accurate self-distillation targets. This approach not only eliminates the need for additional hyperparameters but also enhances the model's ability to approximate the golden targets. Extensive experiments on public benchmarks and an in-house e-commerce dataset demonstrate Unilogit's superior performance in balancing forget and retain objectives, outperforming state-of-the-art methods such as NPO and UnDIAL. Our analysis further reveals Unilogit's robustness across various scenarios, highlighting its practical applicability and effectiveness in achieving efficacious machine unlearning.
PDF182May 16, 2025