Многопрофильное обучение повышает надежность, безопасность и полезность больших языковых моделей.
Multi-expert Prompting Improves Reliability, Safety, and Usefulness of Large Language Models
November 1, 2024
Авторы: Do Xuan Long, Duong Ngoc Yen, Anh Tuan Luu, Kenji Kawaguchi, Min-Yen Kan, Nancy F. Chen
cs.AI
Аннотация
Мы представляем Multi-expert Prompting, новаторское усовершенствование ExpertPrompting (Xu et al., 2023), разработанное для улучшения генерации большой языковой модели (LLM). Конкретно, оно направляет LLM на выполнение входной инструкции путем моделирования нескольких экспертов, агрегации их ответов и выбора лучшего из индивидуальных и агрегированных ответов. Этот процесс выполняется в рамках одной цепочки мыслей через наши семь тщательно разработанных подзадач, вытекающих из техники номинальной группы (Ven и Delbecq, 1974), хорошо установленной рамки принятия решений. Наши оценки показывают, что Multi-expert Prompting значительно превосходит ExpertPrompting и сравнимые базовые уровни в улучшении правдивости, фактичности, информативности и полезности ответов, снижая токсичность и вредность. Кроме того, он достигает передового уровня правдивости, превосходя лучший базовый уровень на 8,69% с ChatGPT. Multi-expert Prompting эффективен, объясним и высоко адаптивен к различным сценариям, устраняя необходимость в ручном создании подсказок.
English
We present Multi-expert Prompting, a novel enhancement of ExpertPrompting (Xu
et al., 2023), designed to improve the large language model (LLM) generation.
Specifically, it guides an LLM to fulfill an input instruction by simulating
multiple experts, aggregating their responses, and selecting the best among
individual and aggregated responses. This process is performed in a single
chain of thoughts through our seven carefully designed subtasks derived from
the Nominal Group Technique (Ven and Delbecq, 1974), a well-established
decision-making framework. Our evaluations demonstrate that Multi-expert
Prompting significantly outperforms ExpertPrompting and comparable baselines in
enhancing the truthfulness, factuality, informativeness, and usefulness of
responses while reducing toxicity and hurtfulness. It further achieves
state-of-the-art truthfulness by outperforming the best baseline by 8.69% with
ChatGPT. Multi-expert Prompting is efficient, explainable, and highly adaptable
to diverse scenarios, eliminating the need for manual prompt construction.Summary
AI-Generated Summary