Adapters: Una Libreria Unificata per il Transfer Learning Parametricamente Efficiente e Modulare
Adapters: A Unified Library for Parameter-Efficient and Modular Transfer Learning
November 18, 2023
Autori: Clifton Poth, Hannah Sterz, Indraneil Paul, Sukannya Purkayastha, Leon Engländer, Timo Imhof, Ivan Vulić, Sebastian Ruder, Iryna Gurevych, Jonas Pfeiffer
cs.AI
Abstract
Introduciamo Adapters, una libreria open-source che unifica il trasferimento di apprendimento parametricamente efficiente e modulare nei grandi modelli linguistici. Integrando 10 diversi metodi di adattamento in un'interfaccia unificata, Adapters offre facilità d'uso e configurazione flessibile. La nostra libreria consente a ricercatori e professionisti di sfruttare la modularità degli adattatori attraverso blocchi di composizione, permettendo la progettazione di configurazioni complesse di adattatori. Dimostriamo l'efficacia della libreria valutando le sue prestazioni rispetto alla messa a punto completa su vari compiti di NLP. Adapters fornisce uno strumento potente per affrontare le sfide dei paradigmi convenzionali di messa a punto e promuovere un trasferimento di apprendimento più efficiente e modulare. La libreria è disponibile all'indirizzo https://adapterhub.ml/adapters.
English
We introduce Adapters, an open-source library that unifies
parameter-efficient and modular transfer learning in large language models. By
integrating 10 diverse adapter methods into a unified interface, Adapters
offers ease of use and flexible configuration. Our library allows researchers
and practitioners to leverage adapter modularity through composition blocks,
enabling the design of complex adapter setups. We demonstrate the library's
efficacy by evaluating its performance against full fine-tuning on various NLP
tasks. Adapters provides a powerful tool for addressing the challenges of
conventional fine-tuning paradigms and promoting more efficient and modular
transfer learning. The library is available via https://adapterhub.ml/adapters.