ChatPaper.aiChatPaper

Como o comportamento do ChatGPT está mudando ao longo do tempo?

How is ChatGPT's behavior changing over time?

July 18, 2023
Autores: Lingjiao Chen, Matei Zaharia, James Zou
cs.AI

Resumo

GPT-3.5 e GPT-4 são os dois serviços de modelos de linguagem de grande escala (LLM) mais amplamente utilizados. No entanto, quando e como esses modelos são atualizados ao longo do tempo permanece obscuro. Aqui, avaliamos as versões de março de 2023 e junho de 2023 do GPT-3.5 e GPT-4 em quatro tarefas diversas: 1) resolver problemas matemáticos, 2) responder perguntas sensíveis/perigosas, 3) gerar código e 4) raciocínio visual. Descobrimos que o desempenho e o comportamento tanto do GPT-3.5 quanto do GPT-4 podem variar significativamente ao longo do tempo. Por exemplo, o GPT-4 (março de 2023) foi muito bom em identificar números primos (precisão de 97,6%), mas o GPT-4 (junho de 2023) foi muito ruim nessas mesmas questões (precisão de 2,4%). Curiosamente, o GPT-3.5 (junho de 2023) foi muito melhor que o GPT-3.5 (março de 2023) nessa tarefa. O GPT-4 foi menos propenso a responder perguntas sensíveis em junho do que em março, e tanto o GPT-4 quanto o GPT-3.5 cometeram mais erros de formatação na geração de código em junho do que em março. No geral, nossos resultados mostram que o comportamento do mesmo serviço de LLM pode mudar substancialmente em um período relativamente curto, destacando a necessidade de monitoramento contínuo da qualidade dos LLMs.
English
GPT-3.5 and GPT-4 are the two most widely used large language model (LLM) services. However, when and how these models are updated over time is opaque. Here, we evaluate the March 2023 and June 2023 versions of GPT-3.5 and GPT-4 on four diverse tasks: 1) solving math problems, 2) answering sensitive/dangerous questions, 3) generating code and 4) visual reasoning. We find that the performance and behavior of both GPT-3.5 and GPT-4 can vary greatly over time. For example, GPT-4 (March 2023) was very good at identifying prime numbers (accuracy 97.6%) but GPT-4 (June 2023) was very poor on these same questions (accuracy 2.4%). Interestingly GPT-3.5 (June 2023) was much better than GPT-3.5 (March 2023) in this task. GPT-4 was less willing to answer sensitive questions in June than in March, and both GPT-4 and GPT-3.5 had more formatting mistakes in code generation in June than in March. Overall, our findings shows that the behavior of the same LLM service can change substantially in a relatively short amount of time, highlighting the need for continuous monitoring of LLM quality.
PDF246February 7, 2026