ChatPaper.aiChatPaper

Descoberta de Estruturas Matemáticas Extremais Baseada em Fluxo

Flow-based Extremal Mathematical Structure Discovery

January 25, 2026
Autores: Gergely Bérczi, Baran Hashemi, Jonas Klüver
cs.AI

Resumo

A descoberta de estruturas extremais em matemática requer a navegação em paisagens vastas e não convexas, onde os métodos analíticos oferecem pouca orientação e a busca por força bruta torna-se intratável. Apresentamos o FlowBoost, uma estrutura gerativa de ciclo fechado que aprende a descobrir estruturas geométricas raras e extremais combinando três componentes: (i) um modelo de *flow-matching* condicional com consciência geométrica que aprende a amostrar configurações de alta qualidade, (ii) uma otimização de política guiada por recompensa com exploração de ação que otimiza diretamente o processo de geração em direção ao objetivo, mantendo a diversidade, e (iii) uma busca local estocástica para a geração de dados de treinamento e para o refinamento final. Diferentemente de abordagens anteriores de ciclo aberto, como o PatternBoost, que retreina com amostras discretas filtradas, ou o AlphaEvolve, que depende de Modelos de Linguagem de Grande Porte (LLMs) congelados como operadores de mutação evolutiva, o FlowBoost impõe a viabilidade geométrica durante a amostragem e propaga o sinal de recompensa diretamente no modelo gerativo, fechando o ciclo de otimização e exigindo conjuntos de treinamento muito menores e tempos de treinamento mais curtos, reduzindo as iterações do loop externo em ordens de grandeza, ao mesmo tempo que elimina a dependência de LLMs. Demonstramos a estrutura em quatro problemas de otimização geométrica: empacotamento de esferas em hipercubos, empacotamento de círculos que maximiza a soma dos raios, o problema do triângulo de Heilbronn e a minimização da discrepância estelar. Em vários casos, o FlowBoost descobre configurações que igualam ou superam os melhores resultados conhecidos. Para empacotamentos de círculos, melhoramos os melhores limites inferiores conhecidos, superando o sistema baseado em LLM AlphaEvolve enquanto utilizamos recursos computacionalmente substancialmente menores.
English
The discovery of extremal structures in mathematics requires navigating vast and nonconvex landscapes where analytical methods offer little guidance and brute-force search becomes intractable. We introduce FlowBoost, a closed-loop generative framework that learns to discover rare and extremal geometric structures by combining three components: (i) a geometry-aware conditional flow-matching model that learns to sample high-quality configurations, (ii) reward-guided policy optimization with action exploration that directly optimizes the generation process toward the objective while maintaining diversity, and (iii) stochastic local search for both training-data generation and final refinement. Unlike prior open-loop approaches, such as PatternBoost that retrains on filtered discrete samples, or AlphaEvolve which relies on frozen Large Language Models (LLMs) as evolutionary mutation operators, FlowBoost enforces geometric feasibility during sampling, and propagates reward signal directly into the generative model, closing the optimization loop and requiring much smaller training sets and shorter training times, and reducing the required outer-loop iterations by orders of magnitude, while eliminating dependence on LLMs. We demonstrate the framework on four geometric optimization problems: sphere packing in hypercubes, circle packing maximizing sum of radii, the Heilbronn triangle problem, and star discrepancy minimization. In several cases, FlowBoost discovers configurations that match or exceed the best known results. For circle packings, we improve the best known lower bounds, surpassing the LLM-based system AlphaEvolve while using substantially fewer computational resources.
PDF23February 16, 2026