Échantillonnage par antidistillation
Antidistillation Sampling
April 17, 2025
Auteurs: Yash Savani, Asher Trockman, Zhili Feng, Avi Schwarzschild, Alexander Robey, Marc Finzi, J. Zico Kolter
cs.AI
Résumé
Les modèles de pointe qui génèrent des traces de raisonnement étendues produisent involontairement des séquences de tokens riches qui peuvent faciliter la distillation de modèles. Conscients de cette vulnérabilité, les propriétaires de modèles peuvent rechercher des stratégies d'échantillonnage qui limitent l'efficacité de la distillation sans compromettre les performances du modèle. L'échantillonnage antidistillation offre précisément cette capacité. En modifiant stratégiquement la distribution de probabilité du prochain token d'un modèle, l'échantillonnage antidistillation empoisonne les traces de raisonnement, les rendant significativement moins efficaces pour la distillation tout en préservant l'utilité pratique du modèle. Pour plus de détails, consultez https://antidistillation.com.
English
Frontier models that generate extended reasoning traces inadvertently produce
rich token sequences that can facilitate model distillation. Recognizing this
vulnerability, model owners may seek sampling strategies that limit the
effectiveness of distillation without compromising model performance.
Antidistillation sampling provides exactly this capability. By
strategically modifying a model's next-token probability distribution,
antidistillation sampling poisons reasoning traces, rendering them
significantly less effective for distillation while preserving the model's
practical utility. For further details, see https://antidistillation.com.Summary
AI-Generated Summary