Amostragem por Antidestilação
Antidistillation Sampling
April 17, 2025
Autores: Yash Savani, Asher Trockman, Zhili Feng, Avi Schwarzschild, Alexander Robey, Marc Finzi, J. Zico Kolter
cs.AI
Resumo
Modelos de fronteira que geram traços de raciocínio estendidos produzem inadvertidamente sequências ricas de tokens que podem facilitar a destilação de modelos. Reconhecendo essa vulnerabilidade, os proprietários de modelos podem buscar estratégias de amostragem que limitem a eficácia da destilação sem comprometer o desempenho do modelo. A amostragem antidestilação oferece exatamente essa capacidade. Ao modificar estrategicamente a distribuição de probabilidade do próximo token de um modelo, a amostragem antidestilação contamina os traços de raciocínio, tornando-os significativamente menos eficazes para a destilação, enquanto preserva a utilidade prática do modelo. Para mais detalhes, consulte https://antidistillation.com.
English
Frontier models that generate extended reasoning traces inadvertently produce
rich token sequences that can facilitate model distillation. Recognizing this
vulnerability, model owners may seek sampling strategies that limit the
effectiveness of distillation without compromising model performance.
Antidistillation sampling provides exactly this capability. By
strategically modifying a model's next-token probability distribution,
antidistillation sampling poisons reasoning traces, rendering them
significantly less effective for distillation while preserving the model's
practical utility. For further details, see https://antidistillation.com.Summary
AI-Generated Summary