Comment le comportement de ChatGPT évolue-t-il au fil du temps ?
How is ChatGPT's behavior changing over time?
July 18, 2023
Auteurs: Lingjiao Chen, Matei Zaharia, James Zou
cs.AI
Résumé
GPT-3.5 et GPT-4 sont les deux services de grands modèles de langage (LLM) les plus largement utilisés. Cependant, le moment et la manière dont ces modèles sont mis à jour au fil du temps restent opaques. Ici, nous évaluons les versions de mars 2023 et juin 2023 de GPT-3.5 et GPT-4 sur quatre tâches variées : 1) résolution de problèmes mathématiques, 2) réponse à des questions sensibles/dangereuses, 3) génération de code et 4) raisonnement visuel. Nous constatons que les performances et le comportement de GPT-3.5 et GPT-4 peuvent varier considérablement au fil du temps. Par exemple, GPT-4 (mars 2023) était très performant pour identifier les nombres premiers (précision de 97,6 %), mais GPT-4 (juin 2023) était très faible sur ces mêmes questions (précision de 2,4 %). Fait intéressant, GPT-3.5 (juin 2023) était bien meilleur que GPT-3.5 (mars 2023) dans cette tâche. GPT-4 était moins enclin à répondre aux questions sensibles en juin qu'en mars, et GPT-4 et GPT-3.5 ont commis plus d'erreurs de formatage dans la génération de code en juin qu'en mars. Globalement, nos résultats montrent que le comportement d'un même service de LLM peut changer de manière significative en un laps de temps relativement court, soulignant la nécessité d'une surveillance continue de la qualité des LLM.
English
GPT-3.5 and GPT-4 are the two most widely used large language model (LLM)
services. However, when and how these models are updated over time is opaque.
Here, we evaluate the March 2023 and June 2023 versions of GPT-3.5 and GPT-4 on
four diverse tasks: 1) solving math problems, 2) answering sensitive/dangerous
questions, 3) generating code and 4) visual reasoning. We find that the
performance and behavior of both GPT-3.5 and GPT-4 can vary greatly over time.
For example, GPT-4 (March 2023) was very good at identifying prime numbers
(accuracy 97.6%) but GPT-4 (June 2023) was very poor on these same questions
(accuracy 2.4%). Interestingly GPT-3.5 (June 2023) was much better than GPT-3.5
(March 2023) in this task. GPT-4 was less willing to answer sensitive questions
in June than in March, and both GPT-4 and GPT-3.5 had more formatting mistakes
in code generation in June than in March. Overall, our findings shows that the
behavior of the same LLM service can change substantially in a relatively short
amount of time, highlighting the need for continuous monitoring of LLM quality.