ChatPaper.aiChatPaper

ReLook: Visueel-gestuurde RL met een multimodale LLM-criticus voor agentgericht webprogrammeren

ReLook: Vision-Grounded RL with a Multimodal LLM Critic for Agentic Web Coding

October 13, 2025
Auteurs: Yuhang Li, Chenchen Zhang, Ruilin Lv, Ao Liu, Ken Deng, Yuanxing Zhang, Jiaheng Liu, Wiggin Zhou, Bo Zhou
cs.AI

Samenvatting

Hoewel grote taalmodellen (LLMs) uitblinken in het genereren van algoritmische code, hebben ze moeite met front-end ontwikkeling, waar correctheid wordt beoordeeld op gerenderde pixels en interactie. Wij presenteren ReLook, een agent-gebaseerd, visueel verankerd reinforcement learning-framework dat een agent in staat stelt om een robuuste genereren-diagnosticeren-verfijnen-lus te sluiten door een multimodaal LLM (MLLM) als hulpmiddel in te zetten. Tijdens de training gebruikt de agent de MLLM-in-the-loop zowel als visuele criticus—die code beoordeelt met schermafbeeldingen—als als bron van actiegerichte, visueel verankerde feedback; een strikte nul-beloningsregel voor ongeldige renders waarborgt renderbaarheid en voorkomt beloningsmanipulatie. Om gedragsinstorting te voorkomen, introduceren we Forced Optimization, een strikte acceptatieregel die alleen verbeterende revisies toelaat, wat resulteert in monotoon betere trajecten. Tijdens inferentie ontkoppelen we de criticus en voeren we een lichtgewicht, criticus-vrije zelfbewerkingscyclus uit, waardoor de latentie vergelijkbaar blijft met basisdecodering terwijl het grootste deel van de winst behouden blijft. Over drie veelgebruikte benchmarks heen presteert ReLook consistent beter dan sterke baselines in visueel verankerde front-end codegeneratie, wat de voordelen benadrukt van agent-gebaseerde perceptie, visuele beloningen en training-inferentie-ontkoppeling.
English
While Large Language Models (LLMs) excel at algorithmic code generation, they struggle with front-end development, where correctness is judged on rendered pixels and interaction. We present ReLook, an agentic, vision-grounded reinforcement learning framework that empowers an agent to close a robust generate--diagnose--refine loop by invoking a multimodal LLM (MLLM) as a tool. During training, the agent uses the MLLM-in-the-loop both as a visual critic--scoring code with screenshots--and as a source of actionable, vision-grounded feedback; a strict zero-reward rule for invalid renders anchors renderability and prevents reward hacking. To prevent behavioral collapse, we introduce Forced Optimization, a strict acceptance rule that admits only improving revisions, yielding monotonically better trajectories. At inference, we decouple the critic and run a lightweight, critic-free self-edit cycle, keeping latency comparable to base decoding while retaining most of the gains. Across three widely used benchmarks, ReLook consistently outperforms strong baselines in vision-grounded front-end code generation, highlighting the benefits of agentic perception, visual rewards, and training-inference decoupling.
PDF102October 14, 2025