ChatPaper.aiChatPaper

Hackeando Modelos de Linguagem de Grande Escala: Quantificando os Riscos Ocultos do Uso de LLMs para Anotação de Texto

Large Language Model Hacking: Quantifying the Hidden Risks of Using LLMs for Text Annotation

September 10, 2025
Autores: Joachim Baumann, Paul Röttger, Aleksandra Urman, Albert Wendsjö, Flor Miriam Plaza-del-Arco, Johannes B. Gruber, Dirk Hovy
cs.AI

Resumo

Modelos de linguagem de grande escala (LLMs) estão transformando rapidamente a pesquisa em ciências sociais ao permitir a automação de tarefas intensivas em mão de obra, como anotação de dados e análise de texto. No entanto, as saídas dos LLMs variam significativamente dependendo das escolhas de implementação feitas pelos pesquisadores (por exemplo, seleção do modelo, estratégia de prompt ou configurações de temperatura). Essa variação pode introduzir vieses sistemáticos e erros aleatórios, que se propagam para análises subsequentes e causam erros do Tipo I, Tipo II, Tipo S ou Tipo M. Chamamos isso de "hacking de LLM". Quantificamos o risco de hacking de LLM replicando 37 tarefas de anotação de dados de 21 estudos de pesquisa em ciências sociais publicados com 18 modelos diferentes. Analisando 13 milhões de rótulos gerados por LLMs, testamos 2.361 hipóteses realistas para medir como escolhas plausíveis dos pesquisadores afetam as conclusões estatísticas. Encontramos conclusões incorretas com base em dados anotados por LLMs em aproximadamente uma em cada três hipóteses para modelos de última geração e em metade das hipóteses para modelos de linguagem menores. Embora nossos resultados mostrem que um melhor desempenho na tarefa e capacidades gerais superiores do modelo reduzem o risco de hacking de LLM, mesmo modelos altamente precisos não o eliminam completamente. O risco de hacking de LLM diminui à medida que os tamanhos dos efeitos aumentam, indicando a necessidade de uma verificação mais rigorosa de descobertas próximas aos limiares de significância. Nossa análise extensiva de técnicas de mitigação de hacking de LLM enfatiza a importância das anotações humanas na redução de falsos positivos e na melhoria da seleção de modelos. Surpreendentemente, técnicas comuns de correção de estimadores de regressão são amplamente ineficazes na redução do risco de hacking de LLM, pois envolvem um grande trade-off entre erros do Tipo I e Tipo II. Além de erros acidentais, descobrimos que o hacking intencional de LLMs é inaceitavelmente simples. Com poucos LLMs e apenas algumas paráfrases de prompt, qualquer coisa pode ser apresentada como estatisticamente significativa.
English
Large language models (LLMs) are rapidly transforming social science research by enabling the automation of labor-intensive tasks like data annotation and text analysis. However, LLM outputs vary significantly depending on the implementation choices made by researchers (e.g., model selection, prompting strategy, or temperature settings). Such variation can introduce systematic biases and random errors, which propagate to downstream analyses and cause Type I, Type II, Type S, or Type M errors. We call this LLM hacking. We quantify the risk of LLM hacking by replicating 37 data annotation tasks from 21 published social science research studies with 18 different models. Analyzing 13 million LLM labels, we test 2,361 realistic hypotheses to measure how plausible researcher choices affect statistical conclusions. We find incorrect conclusions based on LLM-annotated data in approximately one in three hypotheses for state-of-the-art models, and in half the hypotheses for small language models. While our findings show that higher task performance and better general model capabilities reduce LLM hacking risk, even highly accurate models do not completely eliminate it. The risk of LLM hacking decreases as effect sizes increase, indicating the need for more rigorous verification of findings near significance thresholds. Our extensive analysis of LLM hacking mitigation techniques emphasizes the importance of human annotations in reducing false positive findings and improving model selection. Surprisingly, common regression estimator correction techniques are largely ineffective in reducing LLM hacking risk, as they heavily trade off Type I vs. Type II errors. Beyond accidental errors, we find that intentional LLM hacking is unacceptably simple. With few LLMs and just a handful of prompt paraphrases, anything can be presented as statistically significant.
PDF23September 15, 2025