ChatPaper.aiChatPaper

LADDER: Autoaperfeiçoamento de LLMs por meio de Decomposição Recursiva de Problemas

LADDER: Self-Improving LLMs Through Recursive Problem Decomposition

March 2, 2025
Autores: Toby Simonds, Akira Yoshiyama
cs.AI

Resumo

Apresentamos o LADDER (Aprendizado por Recursão Autônoma de Exemplos Guiada por Dificuldade), uma estrutura que permite que Modelos de Linguagem de Grande Escala melhorem autonomamente suas capacidades de resolução de problemas por meio de aprendizado autoguiado, gerando e resolvendo recursivamente variantes progressivamente mais simples de problemas complexos. Diferente de abordagens anteriores que exigem conjuntos de dados curados ou feedback humano, o LADDER aproveita as próprias capacidades do modelo para gerar variantes mais fáceis de questões. Demonstramos a eficácia do LADDER no tema de integração matemática, melhorando a precisão do Llama 3.2 3B de 1% para 82% em problemas de nível universitário e permitindo que o Qwen2.5 7B Deepseek-R1 Distilled alcance 73% no exame de qualificação do MIT Integration Bee. Também introduzimos o TTRL (Aprendizado por Reforço em Tempo de Teste), onde realizamos aprendizado por reforço em variantes de problemas de teste durante a inferência. O TTRL permite que o Qwen2.5 7B Deepseek-R1 Distilled alcance uma pontuação de 90% no exame de qualificação do MIT Integration Bee, superando o desempenho do OpenAI o1. Esses resultados mostram como o aprendizado estratégico autodirigido pode alcançar melhorias significativas de capacidade sem depender de escalonamento arquitetônico ou supervisão humana.
English
We introduce LADDER (Learning through Autonomous Difficulty-Driven Example Recursion), a framework which enables Large Language Models to autonomously improve their problem-solving capabilities through self-guided learning by recursively generating and solving progressively simpler variants of complex problems. Unlike prior approaches that require curated datasets or human feedback, LADDER leverages a model's own capabilities to generate easier question variants. We demonstrate LADDER's effectiveness in the subject of mathematical integration, improving Llama 3.2 3B's accuracy from 1% to 82% on undergraduate-level problems and enabling Qwen2.5 7B Deepseek-R1 Distilled to achieve 73% on the MIT Integration Bee qualifying examination. We also introduce TTRL (Test-Time Reinforcement Learning), where we perform reinforcement learning on variants of test problems at inference time. TTRL enables Qwen2.5 7B Deepseek-R1 Distilled to achieve a state-of-the-art score of 90% on the MIT Integration Bee qualifying examination, surpassing OpenAI o1's performance. These results show how self-directed strategic learning can achieve significant capability improvements without relying on architectural scaling or human supervision.

Summary

AI-Generated Summary

PDF212March 5, 2025