Antidistillationsprobennahme
Antidistillation Sampling
April 17, 2025
Autoren: Yash Savani, Asher Trockman, Zhili Feng, Avi Schwarzschild, Alexander Robey, Marc Finzi, J. Zico Kolter
cs.AI
Zusammenfassung
Frontier-Modelle, die erweiterte Denkprozesse erzeugen, produzieren unbeabsichtigt
reiche Token-Sequenzen, die die Modell-Distillation erleichtern können. In Anerkennung dieser
Schwachstelle könnten Modellbesitzer nach Sampling-Strategien suchen, die die
Effektivität der Distillation begrenzen, ohne die Modellleistung zu beeinträchtigen.
Antidistillation-Sampling bietet genau diese Fähigkeit. Durch
strategische Modifikation der Wahrscheinlichkeitsverteilung des nächsten Tokens eines Modells
vergiftet Antidistillation-Sampling Denkprozesse und macht sie
deutlich weniger effektiv für die Distillation, während die praktische Nützlichkeit des Modells erhalten bleibt. Weitere Details finden Sie unter https://antidistillation.com.
English
Frontier models that generate extended reasoning traces inadvertently produce
rich token sequences that can facilitate model distillation. Recognizing this
vulnerability, model owners may seek sampling strategies that limit the
effectiveness of distillation without compromising model performance.
Antidistillation sampling provides exactly this capability. By
strategically modifying a model's next-token probability distribution,
antidistillation sampling poisons reasoning traces, rendering them
significantly less effective for distillation while preserving the model's
practical utility. For further details, see https://antidistillation.com.Summary
AI-Generated Summary