ChatPaper.aiChatPaper

Aprovechamiento de Modelos de Lenguaje a Gran Escala para el Análisis Predictivo de la Miseria Humana

Leveraging Large Language Models for Predictive Analysis of Human Misery

August 18, 2025
Autores: Bishanka Seal, Rahul Seetharaman, Aman Bansal, Abhilash Nandy
cs.AI

Resumen

Este estudio investiga el uso de Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) para predecir puntuaciones de miseria percibida por humanos a partir de descripciones en lenguaje natural de escenarios del mundo real. La tarea se plantea como un problema de regresión, donde el modelo asigna un valor escalar entre 0 y 100 a cada enunciado de entrada. Evaluamos múltiples estrategias de "prompting", incluyendo enfoques de "zero-shot", "few-shot" con contexto fijo y "prompting" basado en recuperación utilizando embeddings de oraciones de BERT. Los enfoques de "few-shot" superan consistentemente a las líneas base de "zero-shot", destacando el valor de los ejemplos contextuales en la predicción afectiva. Para ir más allá de la evaluación estática, introducimos el "Misery Game Show", un marco gamificado novedoso inspirado en un formato televisivo. Este pone a prueba a los LLMs a través de rondas estructuradas que involucran comparación ordinal, clasificación binaria, estimación escalar y razonamiento basado en retroalimentación. Esta configuración nos permite evaluar no solo la precisión predictiva, sino también la capacidad del modelo para adaptarse basándose en retroalimentación correctiva. La evaluación gamificada resalta el potencial más amplio de los LLMs en tareas de razonamiento emocional dinámico más allá de la regresión estándar. Enlace al código y datos: https://github.com/abhi1nandy2/Misery_Data_Exps_GitHub.
English
This study investigates the use of Large Language Models (LLMs) for predicting human-perceived misery scores from natural language descriptions of real-world scenarios. The task is framed as a regression problem, where the model assigns a scalar value from 0 to 100 to each input statement. We evaluate multiple prompting strategies, including zero-shot, fixed-context few-shot, and retrieval-based prompting using BERT sentence embeddings. Few-shot approaches consistently outperform zero-shot baselines, underscoring the value of contextual examples in affective prediction. To move beyond static evaluation, we introduce the "Misery Game Show", a novel gamified framework inspired by a television format. It tests LLMs through structured rounds involving ordinal comparison, binary classification, scalar estimation, and feedback-driven reasoning. This setup enables us to assess not only predictive accuracy but also the model's ability to adapt based on corrective feedback. The gamified evaluation highlights the broader potential of LLMs in dynamic emotional reasoning tasks beyond standard regression. Code and data link: https://github.com/abhi1nandy2/Misery_Data_Exps_GitHub
PDF81August 20, 2025