PROGRESSLM: Hacia el Razonamiento de Progreso en Modelos de Lenguaje y Visión
PROGRESSLM: Towards Progress Reasoning in Vision-Language Models
January 21, 2026
Autores: Jianshu Zhang, Chengxuan Qian, Haosen Sun, Haoran Lu, Dingcheng Wang, Letian Xue, Han Liu
cs.AI
Resumen
La estimación del progreso de una tarea requiere razonar sobre dinámicas de largo horizonte, en lugar de reconocer contenido visual estático. Si bien los Modelos de Visión y Lenguaje modernos destacan en describir lo que es visible, no está claro si pueden inferir qué tan avanzada está una tarea a partir de observaciones parciales. Para ello, presentamos Progress-Bench, un benchmark para evaluar sistemáticamente el razonamiento sobre progreso en VLMs. Más allá de la evaluación comparativa, exploramos además un paradigma de razonamiento sobre progreso en dos etapas, inspirado en el humano, mediante tanto *prompting* sin entrenamiento como un enfoque basado en entrenamiento utilizando el conjunto de datos curado ProgressLM-45K. Los experimentos con 14 VLMs muestran que la mayoría de los modelos aún no están preparados para la estimación del progreso de tareas, mostrando sensibilidad a la modalidad de demostración y a cambios de punto de vista, así como un manejo deficiente de casos no respondibles. Mientras que el *prompting* sin entrenamiento que impone un razonamiento estructurado sobre el progreso produce ganancias limitadas y dependientes del modelo, el ProgressLM-3B basado en entrenamiento logra mejoras consistentes incluso a una escala de modelo pequeña, a pesar de ser entrenado en un conjunto de tareas completamente disjunto de las tareas de evaluación. Análisis posteriores revelan patrones característicos de error y aclaran cuándo y por qué el razonamiento sobre progreso tiene éxito o falla.
English
Estimating task progress requires reasoning over long-horizon dynamics rather than recognizing static visual content. While modern Vision-Language Models (VLMs) excel at describing what is visible, it remains unclear whether they can infer how far a task has progressed from partial observations. To this end, we introduce Progress-Bench, a benchmark for systematically evaluating progress reasoning in VLMs. Beyond benchmarking, we further explore a human-inspired two-stage progress reasoning paradigm through both training-free prompting and training-based approach based on curated dataset ProgressLM-45K. Experiments on 14 VLMs show that most models are not yet ready for task progress estimation, exhibiting sensitivity to demonstration modality and viewpoint changes, as well as poor handling of unanswerable cases. While training-free prompting that enforces structured progress reasoning yields limited and model-dependent gains, the training-based ProgressLM-3B achieves consistent improvements even at a small model scale, despite being trained on a task set fully disjoint from the evaluation tasks. Further analyses reveal characteristic error patterns and clarify when and why progress reasoning succeeds or fails.