흐름 기반 극값 수학적 구조 발견
Flow-based Extremal Mathematical Structure Discovery
January 25, 2026
저자: Gergely Bérczi, Baran Hashemi, Jonas Klüver
cs.AI
초록
수학에서 극값 구조를 발견하는 것은 분석적 방법으로는 통찰을 얻기 어렵고 무차별 대입 탐색은 비현실적으로 복잡한 방대하고 비볼록한 지형을 탐색해야 하는 과정입니다. 본 연구에서는 세 가지 구성 요소를 결합하여 희귀하고 극값적인 기하학적 구조 발견을 학습하는 폐쇄형 생성 프레임워크인 FlowBoost를 소개합니다: (i) 고품질 구성 샘플링을 학습하는 기하 구조 인식 조건부 흐름 매칭 모델, (ii) 다양성을 유지하면서 생성 과정을 목표에 직접 최적화하는 보안 안내 정책 최적화 및 행동 탐색, (iii) 학습 데이터 생성 및 최종 정제를 위한 확률적 지역 탐색. 필터링된 이산 샘플을 재학습하는 PatternBoost나 진화적 돌연변이 연산자로 고정된 대형 언어 모델(LLM)에 의존하는 AlphaEvolve와 같은 기존의 개방형 접근법과 달리, FlowBoost는 샘플링 과정에서 기하학적 타당성을 강제하고 보상 신호를 생성 모델에 직접 전파하여 최적화 루프를 폐쇄합니다. 이를 통해 훨씬 작은 훈련 세트와 짧은 훈련 시간으로 외부 루프 반복 횟수를 획기적으로 줄이며 LLM 의존성을 제거합니다. 우리는 이 프레임워크를 4가지 기하학적 최적화 문제(초입방체 내 구 채우기, 반지름 합 최대화 원 채우기, Heilbronn 삼각형 문제, 별 불일치 최소화)에 적용하여 입증합니다. 여러 경우에 FlowBoost는 기존 최고 결과에 필적하거나 이를 능가하는 구성을 발견합니다. 원 채우기 문제에서는 LLM 기반 시스템인 AlphaEvolve를 능가하는 새로운 최적 하한을 발견하며 상당히 적은 계산 자원을 사용합니다.
English
The discovery of extremal structures in mathematics requires navigating vast and nonconvex landscapes where analytical methods offer little guidance and brute-force search becomes intractable. We introduce FlowBoost, a closed-loop generative framework that learns to discover rare and extremal geometric structures by combining three components: (i) a geometry-aware conditional flow-matching model that learns to sample high-quality configurations, (ii) reward-guided policy optimization with action exploration that directly optimizes the generation process toward the objective while maintaining diversity, and (iii) stochastic local search for both training-data generation and final refinement. Unlike prior open-loop approaches, such as PatternBoost that retrains on filtered discrete samples, or AlphaEvolve which relies on frozen Large Language Models (LLMs) as evolutionary mutation operators, FlowBoost enforces geometric feasibility during sampling, and propagates reward signal directly into the generative model, closing the optimization loop and requiring much smaller training sets and shorter training times, and reducing the required outer-loop iterations by orders of magnitude, while eliminating dependence on LLMs. We demonstrate the framework on four geometric optimization problems: sphere packing in hypercubes, circle packing maximizing sum of radii, the Heilbronn triangle problem, and star discrepancy minimization. In several cases, FlowBoost discovers configurations that match or exceed the best known results. For circle packings, we improve the best known lower bounds, surpassing the LLM-based system AlphaEvolve while using substantially fewer computational resources.