Développement de la réflexion plus approfondie des LLMEvolving Deeper LLM Thinking
Nous explorons une stratégie de recherche évolutive pour optimiser le temps d'inférence des calculs dans les grands modèles de langage. L'approche proposée, Évolution Mentale, utilise un modèle de langage pour générer, recombiner et affiner les réponses candidates. Cette approche évite la nécessité de formaliser le problème d'inférence sous-jacent chaque fois qu'un évaluateur de solution est disponible. En contrôlant le coût de l'inférence, nous constatons que l'Évolution Mentale surpasse significativement d'autres stratégies d'inférence telles que Meilleur-de-N et Révision Séquentielle dans les tâches de planification en langage naturel. Dans les benchmarks TravelPlanner et Natural Plan, l'Évolution Mentale résout plus de 98 % des instances de problème en utilisant Gemini 1.5 Pro sans recourir à un solveur formel.