SPHINX: Un Ambiente Sintetico per la Percezione Visiva e il Ragionamento
SPHINX: A Synthetic Environment for Visual Perception and Reasoning
November 25, 2025
Autori: Md Tanvirul Alam, Saksham Aggarwal, Justin Yang Chae, Nidhi Rastogi
cs.AI
Abstract
Presentiamo Sphinx, un ambiente sintetico per la percezione visiva e il ragionamento che mira ai primitivi cognitivi fondamentali. Sphinx genera proceduralmente enigmi utilizzando motivi, tessere, grafici, icone e primitive geometriche, ciascuno associato a soluzioni di verifica attendibile (ground-truth), consentendo sia una valutazione precisa che la costruzione di dataset su larga scala. Il benchmark copre 25 tipologie di compiti che spaziano dal rilevamento di simmetrie, alle trasformazioni geometriche, al ragionamento spaziale, all'interpretazione di grafici e alla previsione di sequenze. La valutazione di recenti modelli linguistico-visivi di grandi dimensioni (LVLM) mostra che anche l'all'avanguardia GPT-5 raggiunge solo il 51,1% di accuratezza, ben al di sotto delle prestazioni umane. Infine, dimostriamo che l'apprendimento per rinforzo con ricompense verificabili (RLVR) migliora sostanzialmente l'accuratezza del modello su questi compiti e produce guadagni su benchmark esterni di ragionamento visivo, evidenziandone la promessa per far progredire il ragionamento multimodale.
English
We present Sphinx, a synthetic environment for visual perception and reasoning that targets core cognitive primitives. Sphinx procedurally generates puzzles using motifs, tiles, charts, icons, and geometric primitives, each paired with verifiable ground-truth solutions, enabling both precise evaluation and large-scale dataset construction. The benchmark covers 25 task types spanning symmetry detection, geometric transformations, spatial reasoning, chart interpretation, and sequence prediction. Evaluating recent large vision-language models (LVLMs) shows that even state-of-the-art GPT-5 attains only 51.1% accuracy, well below human performance. Finally, we demonstrate that reinforcement learning with verifiable rewards (RLVR) substantially improves model accuracy on these tasks and yields gains on external visual reasoning benchmarks, highlighting its promise for advancing multimodal reasoning.