Genie: コンテンツ基盤型データセット生成における人間並みの性能達成
Genie: Achieving Human Parity in Content-Grounded Datasets Generation
January 25, 2024
著者: Asaf Yehudai, Boaz Carmeli, Yosi Mass, Ofir Arviv, Nathaniel Mills, Assaf Toledo, Eyal Shnarch, Leshem Choshen
cs.AI
要旨
コンテンツに基づく生成タスクにおける高品質なデータの不足は、これらのタスクの進展を阻む主要な障害として認識されてきました。このギャップを埋めるため、我々は高品質なコンテンツ基盤データを自動生成する新規手法「Genie」を提案します。この手法は以下の3段階で構成されます:(a) コンテンツの準備、(b) 生成:コンテンツからタスク固有の例(例:質問-回答ペアや要約)を作成、(c) 生成データの品質と忠実性を保証するためのフィルタリング機構。我々はこの方法論を、長文質問応答(LFQA)、要約、情報抽出のための3つの大規模な合成データを生成することで実証します。人間による評価では、生成されたデータが自然で高品質であることが確認されました。さらに、我々のデータで訓練されたモデルと、人間が作成したデータ(LFQAのためのELI5とASQA、要約のためのCNN-DailyMail)で訓練されたモデルを比較します。我々のモデルは、人間が生成したデータで訓練されたモデルと同等かそれ以上の性能を示し、特に忠実性において一貫して優れていることを示します。最後に、我々はこの手法を医療分野におけるLFQAデータの作成に適用し、そのデータで訓練されたモデルを他の分野で訓練されたモデルと比較しました。
English
The lack of high-quality data for content-grounded generation tasks has been
identified as a major obstacle to advancing these tasks. To address this gap,
we propose Genie, a novel method for automatically generating high-quality
content-grounded data. It consists of three stages: (a) Content Preparation,
(b) Generation: creating task-specific examples from the content (e.g.,
question-answer pairs or summaries). (c) Filtering mechanism aiming to ensure
the quality and faithfulness of the generated data. We showcase this
methodology by generating three large-scale synthetic data, making wishes, for
Long-Form Question-Answering (LFQA), summarization, and information extraction.
In a human evaluation, our generated data was found to be natural and of high
quality. Furthermore, we compare models trained on our data with models trained
on human-written data -- ELI5 and ASQA for LFQA and CNN-DailyMail for
Summarization. We show that our models are on par with or outperforming models
trained on human-generated data and consistently outperforming them in
faithfulness. Finally, we applied our method to create LFQA data within the
medical domain and compared a model trained on it with models trained on other
domains.