papers.description
Les récents progrès dans les modèles de langage à grande échelle (LLMs) ont déplacé la frontière de la résolution de casse-têtes vers un raisonnement de niveau scientifique—le type nécessaire pour aborder des problèmes dont les réponses doivent résister à l'épreuve de la nature, et non simplement correspondre à un barème. La physique constitue le test le plus rigoureux de cette transition, car elle lie les symboles à la réalité de manière fondamentale, servant de pierre angulaire à la plupart des technologies modernes. Dans ce travail, nous parvenons à faire progresser la recherche en physique en développant des modèles de langage à grande échelle dotés de capacités exceptionnelles de raisonnement physique, excellant particulièrement dans la résolution de problèmes de physique de niveau Olympiade. Nous présentons P1, une famille de modèles de raisonnement physique open-source entièrement entraînés par apprentissage par renforcement (RL). Parmi eux, P1-235B-A22B est le premier modèle open-source à obtenir une performance de médaille d'or lors de la dernière Olympiade Internationale de Physique (IPhO 2025), et remporte 12 médailles d'or sur 13 compétitions internationales/régionales de physique en 2024/2025. P1-30B-A3B surpasse également presque tous les autres modèles open-source à l'IPhO 2025, obtenant une médaille d'argent. En étant équipé d'un cadre agentique PhysicsMinions, P1-235B-A22B+PhysicsMinions atteint la première place globale à l'IPhO 2025 et obtient le score moyen le plus élevé sur les 13 compétitions de physique. Outre la physique, les modèles P1 montrent également d'excellentes performances sur d'autres tâches de raisonnement comme les mathématiques et la programmation, démontrant ainsi la grande généralisabilité de la série P1.