Campionamento Anti-distillazione
Antidistillation Sampling
April 17, 2025
Autori: Yash Savani, Asher Trockman, Zhili Feng, Avi Schwarzschild, Alexander Robey, Marc Finzi, J. Zico Kolter
cs.AI
Abstract
I modelli di frontiera che generano tracce di ragionamento esteso producono involontariamente sequenze di token ricche che possono facilitare la distillazione del modello. Riconoscendo questa vulnerabilità, i proprietari dei modelli potrebbero cercare strategie di campionamento che limitino l'efficacia della distillazione senza compromettere le prestazioni del modello. Il campionamento antidistillazione fornisce esattamente questa capacità. Modificando strategicamente la distribuzione di probabilità del token successivo di un modello, il campionamento antidistillazione avvelena le tracce di ragionamento, rendendole significativamente meno efficaci per la distillazione pur preservando l'utilità pratica del modello. Per ulteriori dettagli, consultare https://antidistillation.com.
English
Frontier models that generate extended reasoning traces inadvertently produce
rich token sequences that can facilitate model distillation. Recognizing this
vulnerability, model owners may seek sampling strategies that limit the
effectiveness of distillation without compromising model performance.
Antidistillation sampling provides exactly this capability. By
strategically modifying a model's next-token probability distribution,
antidistillation sampling poisons reasoning traces, rendering them
significantly less effective for distillation while preserving the model's
practical utility. For further details, see https://antidistillation.com.Summary
AI-Generated Summary