Antidistillatie Bemonstering
Antidistillation Sampling
April 17, 2025
Auteurs: Yash Savani, Asher Trockman, Zhili Feng, Avi Schwarzschild, Alexander Robey, Marc Finzi, J. Zico Kolter
cs.AI
Samenvatting
Frontiermodellen die uitgebreide redeneersporen genereren, produceren onbedoeld rijke tokenreeksen die modeldistillatie kunnen vergemakkelijken. Door deze kwetsbaarheid te erkennen, kunnen modelbezitters samplingstrategieën zoeken die de effectiviteit van distillatie beperken zonder de modelprestaties aan te tasten. Antidistillatie-sampling biedt precies deze mogelijkheid. Door strategisch de volgende-token-waarschijnlijkheidsverdeling van een model aan te passen, vergiftigt antidistillatie-sampling redeneersporen, waardoor ze aanzienlijk minder effectief worden voor distillatie terwijl de praktische bruikbaarheid van het model behouden blijft. Voor meer details, zie https://antidistillation.com.
English
Frontier models that generate extended reasoning traces inadvertently produce
rich token sequences that can facilitate model distillation. Recognizing this
vulnerability, model owners may seek sampling strategies that limit the
effectiveness of distillation without compromising model performance.
Antidistillation sampling provides exactly this capability. By
strategically modifying a model's next-token probability distribution,
antidistillation sampling poisons reasoning traces, rendering them
significantly less effective for distillation while preserving the model's
practical utility. For further details, see https://antidistillation.com.Summary
AI-Generated Summary