ChatPaper.aiChatPaper

GeometryZero: Mejora de la Resolución de Geometría para LLM con Optimización de Política de Contraste Grupal

GeometryZero: Improving Geometry Solving for LLM with Group Contrastive Policy Optimization

June 8, 2025
Autores: Yikun Wang, Yibin Wang, Dianyi Wang, Zimian Peng, Qipeng Guo, Dacheng Tao, Jiaqi Wang
cs.AI

Resumen

Los avances recientes en los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) han demostrado capacidades notables en diversos dominios, particularmente en el razonamiento matemático, entre los cuales la resolución de problemas de geometría sigue siendo un área desafiante donde la construcción auxiliar desempeña un papel esencial. Los enfoques existentes logran un rendimiento subóptimo o dependen de LLMs masivos (por ejemplo, GPT-4o), incurriendo en costos computacionales significativos. Postulamos que el aprendizaje por refuerzo con recompensas verificables (por ejemplo, GRPO) ofrece una dirección prometedora para entrenar modelos más pequeños que combinen de manera efectiva la construcción auxiliar con un razonamiento geométrico robusto. Sin embargo, la aplicación directa de GRPO al razonamiento geométrico presenta limitaciones fundamentales debido a su dependencia de recompensas incondicionales, lo que conduce a construcciones auxiliares indiscriminadas y contraproducentes. Para abordar estos desafíos, proponemos la Optimización de Políticas por Contraste Grupal (GCPO, por sus siglas en inglés), un novedoso marco de aprendizaje por refuerzo que presenta dos innovaciones clave: (1) el Enmascaramiento por Contraste Grupal, que proporciona señales de recompensa positivas o negativas para la construcción auxiliar basadas en la utilidad contextual, y (2) una recompensa de longitud que promueve cadenas de razonamiento más largas. Basándonos en GCPO, desarrollamos GeometryZero, una familia de modelos de razonamiento geométrico de tamaño asequible que determinan de manera juiciosa cuándo emplear la construcción auxiliar. Nuestra extensa evaluación empírica en benchmarks geométricos populares (Geometry3K, MathVista) demuestra que los modelos GeometryZero superan consistentemente a los baselines (por ejemplo, GRPO), logrando una mejora promedio del 4.29% en todos los benchmarks.
English
Recent advances in large language models (LLMs) have demonstrated remarkable capabilities across diverse domains, particularly in mathematical reasoning, amid which geometry problem solving remains a challenging area where auxiliary construction plays a enssential role. Existing approaches either achieve suboptimal performance or rely on massive LLMs (e.g., GPT-4o), incurring massive computational costs. We posit that reinforcement learning with verifiable reward (e.g., GRPO) offers a promising direction for training smaller models that effectively combine auxiliary construction with robust geometric reasoning. However, directly applying GRPO to geometric reasoning presents fundamental limitations due to its dependence on unconditional rewards, which leads to indiscriminate and counterproductive auxiliary constructions. To address these challenges, we propose Group Contrastive Policy Optimization (GCPO), a novel reinforcement learning framework featuring two key innovations: (1) Group Contrastive Masking, which adaptively provides positive or negative reward signals for auxiliary construction based on contextual utility, and a (2) length reward that promotes longer reasoning chains. Building on GCPO, we develop GeometryZero, a family of affordable-size geometric reasoning models that judiciously determine when to employ auxiliary construction. Our extensive empirical evaluation across popular geometric benchmarks (Geometry3K, MathVista) demonstrates that GeometryZero models consistently outperform baselines (e.g. GRPO), achieving an average improvement of 4.29% across all benchmarks.
PDF32June 10, 2025