ChatPaper.aiChatPaper

ChatQA : Développer des modèles de questions-réponses conversationnelles de niveau GPT-4

ChatQA: Building GPT-4 Level Conversational QA Models

January 18, 2024
Auteurs: Zihan Liu, Wei Ping, Rajarshi Roy, Peng Xu, Mohammad Shoeybi, Bryan Catanzaro
cs.AI

Résumé

Dans ce travail, nous présentons ChatQA, une famille de modèles de question-réponse conversationnelle (QA) qui atteignent des niveaux de précision comparables à GPT-4. Plus précisément, nous proposons une méthode d'ajustement par instruction en deux étapes qui permet d'améliorer significativement les résultats de QA conversationnelle en zero-shot des grands modèles de langage (LLM). Pour gérer la recherche dans le cadre de la QA conversationnelle, nous affinons un récupérateur dense sur un ensemble de données de QA multi-tours, ce qui fournit des résultats comparables à l'utilisation du modèle de réécriture de requêtes de pointe tout en réduisant considérablement les coûts de déploiement. Il est à noter que notre ChatQA-70B surpasse GPT-4 en termes de score moyen sur 10 ensembles de données de QA conversationnelle (54,14 contre 53,90), sans recourir à aucune donnée synthétique provenant des modèles GPT d'OpenAI.
English
In this work, we introduce ChatQA, a family of conversational question answering (QA) models, that obtain GPT-4 level accuracies. Specifically, we propose a two-stage instruction tuning method that can significantly improve the zero-shot conversational QA results from large language models (LLMs). To handle retrieval in conversational QA, we fine-tune a dense retriever on a multi-turn QA dataset, which provides comparable results to using the state-of-the-art query rewriting model while largely reducing deployment cost. Notably, our ChatQA-70B can outperform GPT-4 in terms of average score on 10 conversational QA datasets (54.14 vs. 53.90), without relying on any synthetic data from OpenAI GPT models.
PDF376December 15, 2024