¿Cómo está cambiando el comportamiento de ChatGPT con el tiempo?
How is ChatGPT's behavior changing over time?
July 18, 2023
Autores: Lingjiao Chen, Matei Zaharia, James Zou
cs.AI
Resumen
GPT-3.5 y GPT-4 son los dos servicios de modelos de lenguaje grande (LLM, por sus siglas en inglés) más utilizados. Sin embargo, cuándo y cómo se actualizan estos modelos a lo largo del tiempo es opaco. En este estudio, evaluamos las versiones de marzo de 2023 y junio de 2023 de GPT-3.5 y GPT-4 en cuatro tareas diversas: 1) resolver problemas matemáticos, 2) responder preguntas sensibles/peligrosas, 3) generar código y 4) razonamiento visual. Descubrimos que el rendimiento y el comportamiento de ambos modelos, GPT-3.5 y GPT-4, pueden variar significativamente con el tiempo. Por ejemplo, GPT-4 (marzo de 2023) era muy bueno identificando números primos (precisión del 97,6%), pero GPT-4 (junio de 2023) tuvo un desempeño muy pobre en las mismas preguntas (precisión del 2,4%). Curiosamente, GPT-3.5 (junio de 2023) fue mucho mejor que GPT-3.5 (marzo de 2023) en esta tarea. GPT-4 estuvo menos dispuesto a responder preguntas sensibles en junio que en marzo, y tanto GPT-4 como GPT-3.5 cometieron más errores de formato en la generación de código en junio que en marzo. En general, nuestros hallazgos muestran que el comportamiento del mismo servicio de LLM puede cambiar sustancialmente en un período de tiempo relativamente corto, lo que resalta la necesidad de un monitoreo continuo de la calidad de los LLM.
English
GPT-3.5 and GPT-4 are the two most widely used large language model (LLM)
services. However, when and how these models are updated over time is opaque.
Here, we evaluate the March 2023 and June 2023 versions of GPT-3.5 and GPT-4 on
four diverse tasks: 1) solving math problems, 2) answering sensitive/dangerous
questions, 3) generating code and 4) visual reasoning. We find that the
performance and behavior of both GPT-3.5 and GPT-4 can vary greatly over time.
For example, GPT-4 (March 2023) was very good at identifying prime numbers
(accuracy 97.6%) but GPT-4 (June 2023) was very poor on these same questions
(accuracy 2.4%). Interestingly GPT-3.5 (June 2023) was much better than GPT-3.5
(March 2023) in this task. GPT-4 was less willing to answer sensitive questions
in June than in March, and both GPT-4 and GPT-3.5 had more formatting mistakes
in code generation in June than in March. Overall, our findings shows that the
behavior of the same LLM service can change substantially in a relatively short
amount of time, highlighting the need for continuous monitoring of LLM quality.