Flow-gebaseerde Ontdekking van Extremale Wiskundige Structuren
Flow-based Extremal Mathematical Structure Discovery
January 25, 2026
Auteurs: Gergely Bérczi, Baran Hashemi, Jonas Klüver
cs.AI
Samenvatting
Het ontdekken van extremale structuren in de wiskunde vereist het navigeren door uitgestrekte en niet-convexe landschappen waar analytische methoden weinig houvast bieden en brute-force zoekacties onuitvoerbaar worden. Wij introduceren FlowBoost, een generatief gesloten-lus raamwerk dat leert zeldzame en extremale geometrische structuren te ontdekken door drie componenten te combineren: (i) een geometrie-bewust conditioneel flow-matching model dat leert hoogwaardige configuraties te bemonsteren, (ii) beloningsgeleide beleidsoptimalisatie met actie-exploratie die het generatieproces rechtstreeks optimaliseert naar het doel toe terwijl diversiteit behouden blijft, en (iii) stochastische lokale zoekactie voor zowel de generatie van trainingsdata als de uiteindelijke verfijning. In tegenstelling tot eerdere open-lus benaderingen, zoals PatternBoost dat opnieuw traint op gefilterde discrete steekproeven, of AlphaEvolve dat vertrouwt op bevroren Large Language Models (LLM's) als evolutionaire mutatie-operatoren, handhaaft FlowBoost geometrische haalbaarheid tijdens het bemonsteren, en propageert het beloningssignaal direct in het generatieve model. Hierdoor wordt de optimalisatielus gesloten, zijn veel kleinere trainingssets en kortere trainingstijden nodig, en worden het benodigde aantal buitenste-lus iteraties met ordes van grootte verminderd, terwijl de afhankelijkheid van LLM's wordt geëlimineerd. Wij demonstreren het raamwerk op vier geometrische optimalisatieproblemen: bollenstapeling in hyperkubussen, cirkelstapeling die de som van de stralen maximaliseert, het Heilbronn-driehoeksprobleem, en minimalisatie van de sterdiscrepantie. In verschillende gevallen ontdekt FlowBoost configuraties die de beste bekende resultaten evenaren of overtreffen. Voor cirkelstapelingen verbeteren we de beste bekende ondergrenzen, waarbij we het op LLM's gebaseerde systeem AlphaEvolve overtreffen met aanzienlijk minder rekenresources.
English
The discovery of extremal structures in mathematics requires navigating vast and nonconvex landscapes where analytical methods offer little guidance and brute-force search becomes intractable. We introduce FlowBoost, a closed-loop generative framework that learns to discover rare and extremal geometric structures by combining three components: (i) a geometry-aware conditional flow-matching model that learns to sample high-quality configurations, (ii) reward-guided policy optimization with action exploration that directly optimizes the generation process toward the objective while maintaining diversity, and (iii) stochastic local search for both training-data generation and final refinement. Unlike prior open-loop approaches, such as PatternBoost that retrains on filtered discrete samples, or AlphaEvolve which relies on frozen Large Language Models (LLMs) as evolutionary mutation operators, FlowBoost enforces geometric feasibility during sampling, and propagates reward signal directly into the generative model, closing the optimization loop and requiring much smaller training sets and shorter training times, and reducing the required outer-loop iterations by orders of magnitude, while eliminating dependence on LLMs. We demonstrate the framework on four geometric optimization problems: sphere packing in hypercubes, circle packing maximizing sum of radii, the Heilbronn triangle problem, and star discrepancy minimization. In several cases, FlowBoost discovers configurations that match or exceed the best known results. For circle packings, we improve the best known lower bounds, surpassing the LLM-based system AlphaEvolve while using substantially fewer computational resources.