ChatPaper.aiChatPaper

Flussbasierte Entdeckung extremaler mathematischer Strukturen

Flow-based Extremal Mathematical Structure Discovery

January 25, 2026
papers.authors: Gergely Bérczi, Baran Hashemi, Jonas Klüver
cs.AI

papers.abstract

Die Entdeckung extremaler Strukturen in der Mathematik erfordert die Navigation durch weite und nichtkonvexe Landschaften, in denen analytische Methoden wenig Orientierung bieten und eine Brute-Force-Suche unlösbar wird. Wir stellen FlowBoost vor, ein generatives Framework mit geschlossenem Regelkreis, das lernt, seltene und extremale geometrische Strukturen zu entdecken, indem es drei Komponenten kombiniert: (i) ein geometrie-bewusstes, konditionales Flow-Matching-Modell, das lernt, hochwertige Konfigurationen zu sampeln, (ii) eine belohnungsgesteuerte Policy-Optimierung mit Aktions-Exploration, die den Generierungsprozess direkt auf das Ziel hin optimiert und dabei Diversität bewahrt, und (iii) eine stochastische Lokalsuche sowohl für die Erzeugung von Trainingsdaten als auch für die finale Verfeinerung. Im Gegensatz zu vorherigen Open-Loop-Ansätzen, wie PatternBoost, das mit gefilterten diskreten Stichproben neu trainiert, oder AlphaEvolve, das auf eingefrorene Large Language Models (LLMs) als evolutionäre Mutationsoperatoren angewiesen ist, erzwingt FlowBoost die geometrische Machbarkeit während des Samplings und leitet das Belohnungssignal direkt in das generative Modell weiter. Dadurch schließt es den Optimierungszyklus, benötigt deutlich kleinere Trainingsdatenmengen und kürzere Trainingszeiten, reduziert die erforderlichen äußeren Schleifeniterationen um Größenordnungen und beseitigt die Abhängigkeit von LLMs. Wir demonstrieren das Framework an vier geometrischen Optimierungsproblemen: Kugelpackungen in Hyperwürfeln, Kreispackungen zur Maximierung der Radien-Summe, das Heilbronn-Dreiecks-Problem und die Minimierung der Sterndiskrepanz. In mehreren Fällen entdeckt FlowBoost Konfigurationen, die die besten bekannten Ergebnisse erreichen oder übertreffen. Bei Kreispackungen verbessern wir die besten bekannten unteren Schranken und übertreffen das LLM-basierte System AlphaEvolve, wobei wir erheblich weniger Rechenressourcen verbrauchen.
English
The discovery of extremal structures in mathematics requires navigating vast and nonconvex landscapes where analytical methods offer little guidance and brute-force search becomes intractable. We introduce FlowBoost, a closed-loop generative framework that learns to discover rare and extremal geometric structures by combining three components: (i) a geometry-aware conditional flow-matching model that learns to sample high-quality configurations, (ii) reward-guided policy optimization with action exploration that directly optimizes the generation process toward the objective while maintaining diversity, and (iii) stochastic local search for both training-data generation and final refinement. Unlike prior open-loop approaches, such as PatternBoost that retrains on filtered discrete samples, or AlphaEvolve which relies on frozen Large Language Models (LLMs) as evolutionary mutation operators, FlowBoost enforces geometric feasibility during sampling, and propagates reward signal directly into the generative model, closing the optimization loop and requiring much smaller training sets and shorter training times, and reducing the required outer-loop iterations by orders of magnitude, while eliminating dependence on LLMs. We demonstrate the framework on four geometric optimization problems: sphere packing in hypercubes, circle packing maximizing sum of radii, the Heilbronn triangle problem, and star discrepancy minimization. In several cases, FlowBoost discovers configurations that match or exceed the best known results. For circle packings, we improve the best known lower bounds, surpassing the LLM-based system AlphaEvolve while using substantially fewer computational resources.
PDF12January 31, 2026