A solicitação multi-especialista melhora a confiabilidade, segurança e utilidade de Modelos de Linguagem Grandes.
Multi-expert Prompting Improves Reliability, Safety, and Usefulness of Large Language Models
November 1, 2024
Autores: Do Xuan Long, Duong Ngoc Yen, Anh Tuan Luu, Kenji Kawaguchi, Min-Yen Kan, Nancy F. Chen
cs.AI
Resumo
Apresentamos o Multi-expert Prompting, um aprimoramento inovador do ExpertPrompting (Xu et al., 2023), projetado para melhorar a geração de modelos de linguagem de grande escala (LLM). Especificamente, ele guia um LLM para cumprir uma instrução de entrada simulando múltiplos especialistas, agregando suas respostas e selecionando a melhor entre as respostas individuais e agregadas. Esse processo é realizado em uma única cadeia de pensamentos por meio de nossas sete subtarefas cuidadosamente projetadas derivadas da Técnica do Grupo Nominal (Ven e Delbecq, 1974), um framework de tomada de decisão bem estabelecido. Nossas avaliações demonstram que o Multi-expert Prompting supera significativamente o ExpertPrompting e baselines comparáveis na melhoria da veracidade, factualidade, informatividade e utilidade das respostas, enquanto reduz a toxicidade e a prejudicialidade. Além disso, alcança a veracidade de ponta ao superar o melhor baseline em 8,69% com o ChatGPT. O Multi-expert Prompting é eficiente, explicável e altamente adaptável a diversos cenários, eliminando a necessidade de construção manual de prompts.
English
We present Multi-expert Prompting, a novel enhancement of ExpertPrompting (Xu
et al., 2023), designed to improve the large language model (LLM) generation.
Specifically, it guides an LLM to fulfill an input instruction by simulating
multiple experts, aggregating their responses, and selecting the best among
individual and aggregated responses. This process is performed in a single
chain of thoughts through our seven carefully designed subtasks derived from
the Nominal Group Technique (Ven and Delbecq, 1974), a well-established
decision-making framework. Our evaluations demonstrate that Multi-expert
Prompting significantly outperforms ExpertPrompting and comparable baselines in
enhancing the truthfulness, factuality, informativeness, and usefulness of
responses while reducing toxicity and hurtfulness. It further achieves
state-of-the-art truthfulness by outperforming the best baseline by 8.69% with
ChatGPT. Multi-expert Prompting is efficient, explainable, and highly adaptable
to diverse scenarios, eliminating the need for manual prompt construction.Summary
AI-Generated Summary