La utilización de múltiples expertos mejora la fiabilidad, seguridad y utilidad de los modelos de lenguaje grandes.
Multi-expert Prompting Improves Reliability, Safety, and Usefulness of Large Language Models
November 1, 2024
Autores: Do Xuan Long, Duong Ngoc Yen, Anh Tuan Luu, Kenji Kawaguchi, Min-Yen Kan, Nancy F. Chen
cs.AI
Resumen
Presentamos Multi-expert Prompting, una mejora novedosa de ExpertPrompting (Xu et al., 2023), diseñada para mejorar la generación de modelos de lenguaje de gran escala (LLM). Específicamente, guía a un LLM para cumplir con una instrucción de entrada mediante la simulación de múltiples expertos, agregando sus respuestas y seleccionando la mejor entre las respuestas individuales y agregadas. Este proceso se realiza en una única cadena de pensamientos a través de nuestras siete subtareas cuidadosamente diseñadas derivadas de la Técnica de Grupo Nominal (Ven y Delbecq, 1974), un marco de toma de decisiones bien establecido. Nuestras evaluaciones demuestran que Multi-expert Prompting supera significativamente a ExpertPrompting y a líneas base comparables en mejorar la veracidad, factualidad, informatividad y utilidad de las respuestas, al tiempo que reduce la toxicidad y la ofensividad. Además, logra un nivel de veracidad de vanguardia al superar al mejor punto de referencia en un 8.69% con ChatGPT. Multi-expert Prompting es eficiente, explicativo y altamente adaptable a diversos escenarios, eliminando la necesidad de construcción manual de instrucciones.
English
We present Multi-expert Prompting, a novel enhancement of ExpertPrompting (Xu
et al., 2023), designed to improve the large language model (LLM) generation.
Specifically, it guides an LLM to fulfill an input instruction by simulating
multiple experts, aggregating their responses, and selecting the best among
individual and aggregated responses. This process is performed in a single
chain of thoughts through our seven carefully designed subtasks derived from
the Nominal Group Technique (Ven and Delbecq, 1974), a well-established
decision-making framework. Our evaluations demonstrate that Multi-expert
Prompting significantly outperforms ExpertPrompting and comparable baselines in
enhancing the truthfulness, factuality, informativeness, and usefulness of
responses while reducing toxicity and hurtfulness. It further achieves
state-of-the-art truthfulness by outperforming the best baseline by 8.69% with
ChatGPT. Multi-expert Prompting is efficient, explainable, and highly adaptable
to diverse scenarios, eliminating the need for manual prompt construction.Summary
AI-Generated Summary