ChatPaper.aiChatPaper

Come sta cambiando il comportamento di ChatGPT nel tempo?

How is ChatGPT's behavior changing over time?

July 18, 2023
Autori: Lingjiao Chen, Matei Zaharia, James Zou
cs.AI

Abstract

GPT-3.5 e GPT-4 sono i due servizi di modelli linguistici di grandi dimensioni (LLM) più ampiamente utilizzati. Tuttavia, quando e come questi modelli vengano aggiornati nel tempo rimane opaco. In questo studio, valutiamo le versioni di GPT-3.5 e GPT-4 di marzo 2023 e giugno 2023 su quattro compiti diversi: 1) risoluzione di problemi matematici, 2) risposta a domande sensibili/pericolose, 3) generazione di codice e 4) ragionamento visivo. Scopriamo che le prestazioni e il comportamento sia di GPT-3.5 che di GPT-4 possono variare notevolmente nel tempo. Ad esempio, GPT-4 (marzo 2023) era molto bravo a identificare i numeri primi (accuratezza del 97,6%), ma GPT-4 (giugno 2023) era molto scarso nelle stesse domande (accuratezza del 2,4%). Curiosamente, GPT-3.5 (giugno 2023) era molto migliore di GPT-3.5 (marzo 2023) in questo compito. GPT-4 era meno disposto a rispondere a domande sensibili a giugno rispetto a marzo, e sia GPT-4 che GPT-3.5 hanno commesso più errori di formattazione nella generazione di codice a giugno rispetto a marzo. Nel complesso, i nostri risultati dimostrano che il comportamento dello stesso servizio LLM può cambiare sostanzialmente in un periodo di tempo relativamente breve, evidenziando la necessità di un monitoraggio continuo della qualità degli LLM.
English
GPT-3.5 and GPT-4 are the two most widely used large language model (LLM) services. However, when and how these models are updated over time is opaque. Here, we evaluate the March 2023 and June 2023 versions of GPT-3.5 and GPT-4 on four diverse tasks: 1) solving math problems, 2) answering sensitive/dangerous questions, 3) generating code and 4) visual reasoning. We find that the performance and behavior of both GPT-3.5 and GPT-4 can vary greatly over time. For example, GPT-4 (March 2023) was very good at identifying prime numbers (accuracy 97.6%) but GPT-4 (June 2023) was very poor on these same questions (accuracy 2.4%). Interestingly GPT-3.5 (June 2023) was much better than GPT-3.5 (March 2023) in this task. GPT-4 was less willing to answer sensitive questions in June than in March, and both GPT-4 and GPT-3.5 had more formatting mistakes in code generation in June than in March. Overall, our findings shows that the behavior of the same LLM service can change substantially in a relatively short amount of time, highlighting the need for continuous monitoring of LLM quality.
PDF246February 7, 2026