ChatPaper.aiChatPaper

Le allucinazioni possono migliorare i grandi modelli linguistici nella scoperta di farmaci.

Hallucinations Can Improve Large Language Models in Drug Discovery

January 23, 2025
Autori: Shuzhou Yuan, Michael Färber
cs.AI

Abstract

Preoccupazioni riguardanti le allucinazioni nei Large Language Models (LLM) sono state sollevate dai ricercatori, tuttavia il loro potenziale in settori in cui la creatività è vitale, come la scoperta di farmaci, merita esplorazione. In questo articolo, avanziamo l'ipotesi che le allucinazioni possano migliorare i LLM nella scoperta di farmaci. Per verificare questa ipotesi, utilizziamo i LLM per descrivere la stringa SMILES delle molecole in linguaggio naturale e poi incorporiamo tali descrizioni come parte del prompt per affrontare compiti specifici nella scoperta di farmaci. Valutati su sette LLM e cinque compiti di classificazione, i nostri risultati confermano l'ipotesi: i LLM possono ottenere migliori prestazioni con testo contenente allucinazioni. In particolare, Llama-3.1-8B ottiene un aumento del 18,35% nella ROC-AUC rispetto al valore di base senza allucinazioni. Inoltre, le allucinazioni generate da GPT-4o forniscono i miglioramenti più consistenti tra i modelli. Inoltre, conduciamo analisi empiriche e uno studio di caso per indagare i fattori chiave che influenzano le prestazioni e le ragioni sottostanti. La nostra ricerca getta luce sull'uso potenziale delle allucinazioni per i LLM e offre nuove prospettive per futuri studi che sfruttano i LLM nella scoperta di farmaci.
English
Concerns about hallucinations in Large Language Models (LLMs) have been raised by researchers, yet their potential in areas where creativity is vital, such as drug discovery, merits exploration. In this paper, we come up with the hypothesis that hallucinations can improve LLMs in drug discovery. To verify this hypothesis, we use LLMs to describe the SMILES string of molecules in natural language and then incorporate these descriptions as part of the prompt to address specific tasks in drug discovery. Evaluated on seven LLMs and five classification tasks, our findings confirm the hypothesis: LLMs can achieve better performance with text containing hallucinations. Notably, Llama-3.1-8B achieves an 18.35% gain in ROC-AUC compared to the baseline without hallucination. Furthermore, hallucinations generated by GPT-4o provide the most consistent improvements across models. Additionally, we conduct empirical analyses and a case study to investigate key factors affecting performance and the underlying reasons. Our research sheds light on the potential use of hallucinations for LLMs and offers new perspectives for future research leveraging LLMs in drug discovery.

Summary

AI-Generated Summary

PDF118January 24, 2025