ChatPaper.aiChatPaper

Democratizando a Capacidade de Raciocínio: Aprendizado Personalizado a partir de Modelos de Linguagem de Grande Escala

Democratizing Reasoning Ability: Tailored Learning from Large Language Model

October 20, 2023
Autores: Zhaoyang Wang, Shaohan Huang, Yuxuan Liu, Jiahai Wang, Minghui Song, Zihan Zhang, Haizhen Huang, Furu Wei, Weiwei Deng, Feng Sun, Qi Zhang
cs.AI

Resumo

Grandes modelos de linguagem (LLMs) exibem habilidades emergentes impressionantes no processamento de linguagem natural, mas sua democratização é dificultada devido aos enormes requisitos de computação e à natureza de código fechado. Pesquisas recentes sobre o avanço de LLMs menores e de código aberto, por meio da destilação de conhecimento de LLMs de caixa preta, obtiveram resultados promissores na capacidade de seguir instruções. No entanto, a capacidade de raciocínio, que é mais desafiadora de desenvolver, é relativamente pouco explorada. Neste artigo, propomos uma abordagem de aprendizado personalizada para destilar essa capacidade de raciocínio para LLMs menores, a fim de facilitar a democratização dessa habilidade exclusiva. Em contraste com o uso meramente do LLM como um anotador de dados, exploramos o potencial do LLM como um professor de raciocínio, construindo um paradigma de aprendizado interativo e multi-rodadas. Esse paradigma permite que o aluno exponha suas deficiências ao professor de caixa preta, que então pode fornecer dados de treinamento personalizados em troca. Além disso, para explorar o potencial de raciocínio do LLM menor, propomos o aprendizado por autorreflexão, incentivando o aluno a aprender com seus próprios erros. O aprendizado por autorreflexão e o LLM são todos adaptados ao status de aprendizado do aluno, graças à integração perfeita com o paradigma de aprendizado multi-rodadas. Experimentos abrangentes e análises em tarefas de raciocínio matemático e de senso comum demonstram a eficácia do nosso método. O código estará disponível em https://github.com/Raibows/Learn-to-Reason.
English
Large language models (LLMs) exhibit impressive emergent abilities in natural language processing, but their democratization is hindered due to huge computation requirements and closed-source nature. Recent research on advancing open-source smaller LMs by distilling knowledge from black-box LLMs has obtained promising results in the instruction-following ability. However, the reasoning ability which is more challenging to foster, is relatively rarely explored. In this paper, we propose a tailored learning approach to distill such reasoning ability to smaller LMs to facilitate the democratization of the exclusive reasoning ability. In contrast to merely employing LLM as a data annotator, we exploit the potential of LLM as a reasoning teacher by building an interactive multi-round learning paradigm. This paradigm enables the student to expose its deficiencies to the black-box teacher who then can provide customized training data in return. Further, to exploit the reasoning potential of the smaller LM, we propose self-reflection learning to motivate the student to learn from self-made mistakes. The learning from self-reflection and LLM are all tailored to the student's learning status, thanks to the seamless integration with the multi-round learning paradigm. Comprehensive experiments and analysis on mathematical and commonsense reasoning tasks demonstrate the effectiveness of our method. The code will be available at https://github.com/Raibows/Learn-to-Reason.
PDF161February 8, 2026