ChatPaper.aiChatPaper

Rumo à Construção do GPT Federado: Ajuste Fino de Instruções em Federação

Towards Building the Federated GPT: Federated Instruction Tuning

May 9, 2023
Autores: Jianyi Zhang, Saeed Vahidian, Martin Kuo, Chunyuan Li, Ruiyi Zhang, Guoyin Wang, Yiran Chen
cs.AI

Resumo

Embora os modelos generativos de linguagem de grande escala (LLMs) ajustados por instruções tenham demonstrado uma capacidade impressionante de generalizar para novas tarefas, as fases de treinamento dependem fortemente de grandes quantidades de dados de instrução diversos e de alta qualidade (como no caso do ChatGPT e GPT-4). Infelizmente, a aquisição de dados de alta qualidade, especialmente quando se trata de dados escritos por humanos, pode apresentar desafios significativos em termos de custo e acessibilidade. Além disso, preocupações relacionadas à privacidade podem limitar ainda mais o acesso a esses dados, tornando o processo de obtenção uma tarefa complexa e cheia de nuances. Consequentemente, isso prejudica a generalidade dos modelos ajustados e pode restringir sua eficácia em determinados contextos. Para enfrentar esse problema, nosso estudo introduz uma nova abordagem chamada Ajuste de Instrução Federado (FedIT), que utiliza o aprendizado federado (FL) como estrutura de aprendizado para o ajuste de instruções de LLMs. Isso marca a primeira exploração do ajuste de instruções baseado em FL para LLMs. Isso é especialmente importante, já que os dados de texto são predominantemente gerados pelos usuários finais. Portanto, é imperativo projetar e adaptar abordagens de FL para aproveitar efetivamente as diversas instruções desses usuários armazenadas em dispositivos locais, preservando a privacidade e garantindo a segurança dos dados. No presente artigo, ao realizar uma avaliação automática amplamente utilizada com o GPT-4, demonstramos que, ao explorar os conjuntos heterogêneos e diversos de instruções no lado do cliente com o framework proposto FedIT, melhoramos o desempenho dos LLMs em comparação com o treinamento centralizado com apenas instruções locais limitadas. Além disso, neste artigo, desenvolvemos um repositório no Github chamado Shepherd. Esse repositório oferece uma estrutura fundamental para explorar o ajuste fino federado de LLMs usando instruções heterogêneas em diversas categorias.
English
While ``instruction-tuned" generative large language models (LLMs) have demonstrated an impressive ability to generalize to new tasks, the training phases heavily rely on large amounts of diverse and high-quality instruction data (such as ChatGPT and GPT-4). Unfortunately, acquiring high-quality data, especially when it comes to human-written data, can pose significant challenges both in terms of cost and accessibility. Moreover, concerns related to privacy can further limit access to such data, making the process of obtaining it a complex and nuanced undertaking. Consequently, this hinders the generality of the tuned models and may restrict their effectiveness in certain contexts. To tackle this issue, our study introduces a new approach called Federated Instruction Tuning (FedIT), which leverages federated learning (FL) as the learning framework for the instruction tuning of LLMs. This marks the first exploration of FL-based instruction tuning for LLMs. This is especially important since text data is predominantly generated by end users. Therefore, it is imperative to design and adapt FL approaches to effectively leverage these users' diverse instructions stored on local devices, while preserving privacy and ensuring data security. In the current paper, by conducting widely used GPT-4 auto-evaluation, we demonstrate that by exploiting the heterogeneous and diverse sets of instructions on the client's end with the proposed framework FedIT, we improved the performance of LLMs compared to centralized training with only limited local instructions. Further, in this paper, we developed a Github repository named Shepherd. This repository offers a foundational framework for exploring federated fine-tuning of LLMs using heterogeneous instructions across diverse categories.
PDF50December 15, 2024