Hoe verandert het gedrag van ChatGPT in de loop van de tijd?
How is ChatGPT's behavior changing over time?
July 18, 2023
Auteurs: Lingjiao Chen, Matei Zaharia, James Zou
cs.AI
Samenvatting
GPT-3.5 en GPT-4 zijn de twee meest gebruikte diensten voor grote taalmodellen (LLM's). Wanneer en hoe deze modellen in de loop van de tijd worden bijgewerkt, is echter ondoorzichtig. Hier evalueren we de versies van maart 2023 en juni 2023 van GPT-3.5 en GPT-4 op vier verschillende taken: 1) het oplossen van wiskundige problemen, 2) het beantwoorden van gevoelige/gevaarlijke vragen, 3) het genereren van code en 4) visueel redeneren. We constateren dat de prestaties en het gedrag van zowel GPT-3.5 als GPT-4 aanzienlijk kunnen variëren in de loop van de tijd. GPT-4 (maart 2023) was bijvoorbeeld zeer goed in het identificeren van priemgetallen (nauwkeurigheid 97,6%), maar GPT-4 (juni 2023) presteerde zeer slecht op dezelfde vragen (nauwkeurigheid 2,4%). Interessant genoeg was GPT-3.5 (juni 2023) veel beter dan GPT-3.5 (maart 2023) in deze taak. GPT-4 was in juni minder bereid om gevoelige vragen te beantwoorden dan in maart, en zowel GPT-4 als GPT-3.5 maakten meer opmaakfouten bij het genereren van code in juni dan in maart. Over het algemeen tonen onze bevindingen aan dat het gedrag van dezelfde LLM-dienst aanzienlijk kan veranderen in een relatief korte tijd, wat de noodzaak van continue monitoring van de kwaliteit van LLM's benadrukt.
English
GPT-3.5 and GPT-4 are the two most widely used large language model (LLM)
services. However, when and how these models are updated over time is opaque.
Here, we evaluate the March 2023 and June 2023 versions of GPT-3.5 and GPT-4 on
four diverse tasks: 1) solving math problems, 2) answering sensitive/dangerous
questions, 3) generating code and 4) visual reasoning. We find that the
performance and behavior of both GPT-3.5 and GPT-4 can vary greatly over time.
For example, GPT-4 (March 2023) was very good at identifying prime numbers
(accuracy 97.6%) but GPT-4 (June 2023) was very poor on these same questions
(accuracy 2.4%). Interestingly GPT-3.5 (June 2023) was much better than GPT-3.5
(March 2023) in this task. GPT-4 was less willing to answer sensitive questions
in June than in March, and both GPT-4 and GPT-3.5 had more formatting mistakes
in code generation in June than in March. Overall, our findings shows that the
behavior of the same LLM service can change substantially in a relatively short
amount of time, highlighting the need for continuous monitoring of LLM quality.