ChatPaper.aiChatPaper

Как меняется поведение ChatGPT с течением времени?

How is ChatGPT's behavior changing over time?

July 18, 2023
Авторы: Lingjiao Chen, Matei Zaharia, James Zou
cs.AI

Аннотация

GPT-3.5 и GPT-4 являются двумя наиболее широко используемыми сервисами больших языковых моделей (LLM). Однако то, когда и как эти модели обновляются со временем, остается неясным. В данном исследовании мы оцениваем версии GPT-3.5 и GPT-4 за март и июнь 2023 года на четырех различных задачах: 1) решение математических задач, 2) ответы на чувствительные/опасные вопросы, 3) генерация кода и 4) визуальное рассуждение. Мы обнаружили, что производительность и поведение как GPT-3.5, так и GPT-4 могут значительно варьироваться со временем. Например, GPT-4 (март 2023 года) был очень хорош в определении простых чисел (точность 97,6%), но GPT-4 (июнь 2023 года) показал очень низкие результаты на тех же вопросах (точность 2,4%). Интересно, что GPT-3.5 (июнь 2023 года) справился с этой задачей значительно лучше, чем GPT-3.5 (март 2023 года). GPT-4 в июне был менее склонен отвечать на чувствительные вопросы, чем в марте, а у обоих GPT-4 и GPT-3.5 в июне было больше ошибок форматирования при генерации кода, чем в марте. В целом, наши результаты показывают, что поведение одного и того же сервиса LLM может существенно измениться за относительно короткий промежуток времени, что подчеркивает необходимость постоянного мониторинга качества LLM.
English
GPT-3.5 and GPT-4 are the two most widely used large language model (LLM) services. However, when and how these models are updated over time is opaque. Here, we evaluate the March 2023 and June 2023 versions of GPT-3.5 and GPT-4 on four diverse tasks: 1) solving math problems, 2) answering sensitive/dangerous questions, 3) generating code and 4) visual reasoning. We find that the performance and behavior of both GPT-3.5 and GPT-4 can vary greatly over time. For example, GPT-4 (March 2023) was very good at identifying prime numbers (accuracy 97.6%) but GPT-4 (June 2023) was very poor on these same questions (accuracy 2.4%). Interestingly GPT-3.5 (June 2023) was much better than GPT-3.5 (March 2023) in this task. GPT-4 was less willing to answer sensitive questions in June than in March, and both GPT-4 and GPT-3.5 had more formatting mistakes in code generation in June than in March. Overall, our findings shows that the behavior of the same LLM service can change substantially in a relatively short amount of time, highlighting the need for continuous monitoring of LLM quality.
PDF246December 15, 2024