ChatPaper.aiChatPaper

Desintoxicação de Alucinações: Desativação Sensível de Neurônios (SeND) para Treinamento de Modelos de Linguagem de Grande Escala

Hallucination Detox: Sensitive Neuron Dropout (SeND) for Large Language Model Training

October 20, 2024
Autores: Shahrad Mohammadzadeh, Juan David Guerra, Marco Bonizzato, Reihaneh Rabbany, Golnoosh Farnadi
cs.AI

Resumo

À medida que os grandes modelos de linguagem (LLMs) são cada vez mais implementados em diversas indústrias, crescem as preocupações sobre sua confiabilidade, especialmente devido às alucinações - saídas que são factualmente imprecisas ou irrelevantes para a entrada do usuário. Nossa pesquisa investiga a relação entre o processo de treinamento e o surgimento de alucinações para abordar uma lacuna importante na pesquisa existente, que se concentra principalmente em estratégias de detecção e mitigação pós-hoc. Utilizando modelos da suíte Pythia (70M-12B parâmetros) e várias métricas de detecção de alucinações, analisamos as tendências de alucinação ao longo do treinamento e exploramos a dinâmica interna dos LLMs. Apresentamos o SEnsitive Neuron Dropout (SeND), um novo protocolo de treinamento projetado para mitigar alucinações, reduzindo a variância durante o treinamento. O SeND alcança isso ao descartar deterministicamente neurônios com variabilidade significativa em um conjunto de dados, denominados Neurônios Sensíveis. Além disso, desenvolvemos uma métrica de detecção de alucinações não supervisionada, o Efficient EigenScore (EES), que aproxima o EigenScore tradicional em dobro da velocidade. Essa métrica eficiente é integrada em nosso protocolo, permitindo que o SeND seja tanto computacionalmente escalável quanto eficaz na redução de alucinações. Nossa avaliação empírica demonstra que nossa abordagem melhora a confiabilidade do LLM no momento do teste em até 40% em comparação com o treinamento normal, fornecendo também um método eficiente para melhorar a precisão factual ao adaptar LLMs para domínios como Wikipedia e conjuntos de dados médicos.
English
As large language models (LLMs) become increasingly deployed across various industries, concerns regarding their reliability, particularly due to hallucinations-outputs that are factually inaccurate or irrelevant to user input-have grown. Our research investigates the relationship between the training process and the emergence of hallucinations to address a key gap in existing research that focuses primarily on post hoc detection and mitigation strategies. Using models from the Pythia suite (70M-12B parameters) and several hallucination detection metrics, we analyze hallucination trends throughout training and explore LLM internal dynamics. We introduce SEnsitive Neuron Dropout (SeND), a novel training protocol designed to mitigate hallucinations by reducing variance during training. SeND achieves this by deterministically dropping neurons with significant variability on a dataset, referred to as Sensitive Neurons. In addition, we develop an unsupervised hallucination detection metric, Efficient EigenScore (EES), which approximates the traditional EigenScore in 2x speed. This efficient metric is integrated into our protocol, allowing SeND to be both computationally scalable and effective at reducing hallucinations. Our empirical evaluation demonstrates that our approach improves LLM reliability at test time by up to 40% compared to normal training while also providing an efficient method to improve factual accuracy when adapting LLMs to domains such as Wikipedia and Medical datasets.

Summary

AI-Generated Summary

PDF12November 16, 2024