ChatPaper.aiChatPaper

Порядок имеет значение при наличии дисбаланса данных в многозадачном обучении

Order Matters in the Presence of Dataset Imbalance for Multilingual Learning

December 11, 2023
Авторы: Dami Choi, Derrick Xin, Hamid Dadkhahi, Justin Gilmer, Ankush Garg, Orhan Firat, Chih-Kuan Yeh, Andrew M. Dai, Behrooz Ghorbani
cs.AI

Аннотация

В данной работе мы эмпирически исследуем динамику оптимизации в многозадачном обучении, уделяя особое внимание тем аспектам, которые управляют набором задач с существенным дисбалансом данных. Мы представляем простой, но эффективный метод, включающий предварительное обучение на задачах с большим объемом данных с последующей тонкой настройкой на смеси задач с высоким и низким объемом данных. Мы проводим детальное эмпирическое исследование и анализ преимуществ этого метода, демонстрируя, что он обеспечивает стабильные улучшения по сравнению с профилем компромиссов производительности стандартного статического взвешивания. Мы анализируем, в каких условиях данных этот метод применим, и эмпирически показываем его улучшения в задачах нейронного машинного перевода (NMT) и многоязычного языкового моделирования.
English
In this paper, we empirically study the optimization dynamics of multi-task learning, particularly focusing on those that govern a collection of tasks with significant data imbalance. We present a simple yet effective method of pre-training on high-resource tasks, followed by fine-tuning on a mixture of high/low-resource tasks. We provide a thorough empirical study and analysis of this method's benefits showing that it achieves consistent improvements relative to the performance trade-off profile of standard static weighting. We analyze under what data regimes this method is applicable and show its improvements empirically in neural machine translation (NMT) and multi-lingual language modeling.

Summary

AI-Generated Summary

PDF30December 15, 2024