ChatPaper.aiChatPaper

Alucinações Podem Melhorar Modelos de Linguagem Avançados na Descoberta de Medicamentos

Hallucinations Can Improve Large Language Models in Drug Discovery

January 23, 2025
Autores: Shuzhou Yuan, Michael Färber
cs.AI

Resumo

Preocupações sobre alucinações em Modelos de Linguagem de Grande Escala (LLMs) têm sido levantadas por pesquisadores, no entanto, seu potencial em áreas onde a criatividade é vital, como a descoberta de medicamentos, merece exploração. Neste artigo, formulamos a hipótese de que alucinações podem melhorar os LLMs na descoberta de medicamentos. Para verificar essa hipótese, utilizamos LLMs para descrever a sequência SMILES de moléculas em linguagem natural e depois incorporamos essas descrições como parte do estímulo para abordar tarefas específicas na descoberta de medicamentos. Avaliados em sete LLMs e cinco tarefas de classificação, nossas descobertas confirmam a hipótese: LLMs podem alcançar melhor desempenho com texto contendo alucinações. Notavelmente, o Llama-3.1-8B alcança um aumento de 18,35% no ROC-AUC em comparação com a linha de base sem alucinação. Além disso, alucinações geradas pelo GPT-4o proporcionam as melhorias mais consistentes entre os modelos. Adicionalmente, conduzimos análises empíricas e um estudo de caso para investigar os principais fatores que afetam o desempenho e as razões subjacentes. Nossa pesquisa lança luz sobre o uso potencial de alucinações para LLMs e oferece novas perspectivas para futuras pesquisas aproveitando LLMs na descoberta de medicamentos.
English
Concerns about hallucinations in Large Language Models (LLMs) have been raised by researchers, yet their potential in areas where creativity is vital, such as drug discovery, merits exploration. In this paper, we come up with the hypothesis that hallucinations can improve LLMs in drug discovery. To verify this hypothesis, we use LLMs to describe the SMILES string of molecules in natural language and then incorporate these descriptions as part of the prompt to address specific tasks in drug discovery. Evaluated on seven LLMs and five classification tasks, our findings confirm the hypothesis: LLMs can achieve better performance with text containing hallucinations. Notably, Llama-3.1-8B achieves an 18.35% gain in ROC-AUC compared to the baseline without hallucination. Furthermore, hallucinations generated by GPT-4o provide the most consistent improvements across models. Additionally, we conduct empirical analyses and a case study to investigate key factors affecting performance and the underlying reasons. Our research sheds light on the potential use of hallucinations for LLMs and offers new perspectives for future research leveraging LLMs in drug discovery.

Summary

AI-Generated Summary

PDF118January 24, 2025