ChatPaper.aiChatPaper

FullFront: Evaluación de MLLMs a lo largo de todo el flujo de trabajo de ingeniería en el front-end

FullFront: Benchmarking MLLMs Across the Full Front-End Engineering Workflow

May 23, 2025
Autores: Haoyu Sun, Huichen Will Wang, Jiawei Gu, Linjie Li, Yu Cheng
cs.AI

Resumen

La ingeniería front-end implica un flujo de trabajo complejo en el que los ingenieros conceptualizan diseños, los traducen en código y refinan iterativamente la implementación. Si bien los puntos de referencia recientes se centran principalmente en convertir diseños visuales en código, presentamos FullFront, un punto de referencia diseñado para evaluar Modelos de Lenguaje Multimodales de Gran Escala (MLLMs) en toda la cadena de desarrollo front-end. FullFront evalúa tres tareas fundamentales que se corresponden directamente con el flujo de trabajo de la ingeniería front-end: Diseño de Páginas Web (fase de conceptualización), Preguntas y Respuestas sobre Percepción de Páginas Web (comprensión de la organización visual y los elementos) y Generación de Código de Páginas Web (fase de implementación). A diferencia de los puntos de referencia existentes que utilizan sitios web rastreados con código inflado o HTML generado por LLMs demasiado simplificado, FullFront emplea un proceso novedoso de dos etapas para transformar páginas web del mundo real en HTML limpio y estandarizado, manteniendo diseños visuales diversos y evitando problemas de derechos de autor. Las pruebas exhaustivas de los MLLMs más avanzados revelan limitaciones significativas en la percepción de páginas, la generación de código (especialmente en el manejo de imágenes y el diseño) y la implementación de interacciones. Nuestros resultados demuestran cuantitativamente las disparidades de rendimiento entre modelos y tareas, y destacan una brecha sustancial entre las capacidades actuales de los MLLMs y el rendimiento de expertos humanos en ingeniería front-end. El punto de referencia FullFront y su código están disponibles en https://github.com/Mikivishy/FullFront.
English
Front-end engineering involves a complex workflow where engineers conceptualize designs, translate them into code, and iteratively refine the implementation. While recent benchmarks primarily focus on converting visual designs to code, we present FullFront, a benchmark designed to evaluate Multimodal Large Language Models (MLLMs) across the full front-end development pipeline. FullFront assesses three fundamental tasks that map directly to the front-end engineering pipeline: Webpage Design (conceptualization phase), Webpage Perception QA (comprehension of visual organization and elements), and Webpage Code Generation (implementation phase). Unlike existing benchmarks that use either scraped websites with bloated code or oversimplified LLM-generated HTML, FullFront employs a novel, two-stage process to transform real-world webpages into clean, standardized HTML while maintaining diverse visual designs and avoiding copyright issues. Extensive testing of state-of-the-art MLLMs reveals significant limitations in page perception, code generation (particularly for image handling and layout), and interaction implementation. Our results quantitatively demonstrate performance disparities across models and tasks, and highlight a substantial gap between current MLLM capabilities and human expert performance in front-end engineering. The FullFront benchmark and code are available in https://github.com/Mikivishy/FullFront.

Summary

AI-Generated Summary

PDF142May 26, 2025