papers.description
Jüngste Fortschritte bei großen Sprachmodellen (LLMs) haben die Grenze vom Rätsellösen hin zu wissenschaftlich fundiertem Denken verschoben – der Art, die benötigt wird, um Probleme zu lösen, deren Antworten der Natur standhalten müssen und nicht lediglich einem Bewertungsschema entsprechen. Die Physik stellt den schärfsten Test für diesen Wandel dar, da sie Symbole auf fundamentale Weise mit der Realität verbindet und als Eckpfeiler der meisten modernen Technologien dient. In dieser Arbeit gelingt es uns, die physikalische Forschung voranzutreiben, indem wir große Sprachmodelle mit außergewöhnlichen Fähigkeiten im physikalischen Denken entwickeln, die insbesondere bei der Lösung von Olympiade-Niveau-Physikproblemen hervorstechen. Wir stellen P1 vor, eine Familie von Open-Source-Modellen für physikalisches Denken, die vollständig durch Reinforcement Learning (RL) trainiert wurden. Unter ihnen ist P1-235B-A22B das erste Open-Source-Modell mit Goldmedaillen-Leistung bei der jüngsten Internationalen Physikolympiade (IPhO 2025) und gewinnt 12 Goldmedaillen bei 13 internationalen/regionalen Physikwettbewerben in den Jahren 2024/2025. P1-30B-A3B übertrifft ebenfalls fast alle anderen Open-Source-Modelle bei der IPhO 2025 und erhält eine Silbermedaille. Weiterhin ausgestattet mit einem agentenbasierten Framework, PhysicsMinions, erreicht P1-235B-A22B+PhysicsMinions den Gesamtsieg bei der IPhO 2025 und erzielt den höchsten Durchschnittswert über die 13 Physikwettbewerbe. Neben der Physik zeigen die P1-Modelle auch hervorragende Leistungen bei anderen Denkaufgaben wie Mathematik und Programmierung, was die große Allgemeingültigkeit der P1-Serie unterstreicht.