Тщательное исследование производительности крупных языковых моделей на задачах арифметики начальной школыA Careful Examination of Large Language Model Performance on Grade
School Arithmetic
Большие языковые модели (LLM) достигли впечатляющих успехов на многих показателях для математического рассуждения. Однако возрастает обеспокоенность тем, что часть этой производительности фактически отражает загрязнение набора данных, когда данные, сильно напоминающие вопросы показателей, просачиваются в обучающие данные, вместо истинной способности к рассуждению. Для тщательного изучения этого утверждения мы заказываем Grade School Math 1000 (GSM1k). GSM1k разработан для отражения стиля и сложности установленного показателя GSM8k, золотого стандарта для измерения элементарного математического рассуждения. Мы гарантируем, что два показателя сравнимы по важным метрикам, таким как процент решения человеком, количество шагов в решении, величина ответа и другие. При оценке ведущих открытых и закрытых LLM на GSM1k мы наблюдаем снижение точности до 13%, причем у нескольких семейств моделей (например, Phi и Mistral) есть признаки систематического переобучения почти на всех размерах моделей. В то же время многие модели, особенно те, что на передовой позиции (например, Gemini/GPT/Claude), показывают минимальные признаки переобучения. Дальнейший анализ указывает на положительную связь (коэффициент корреляции Спирмена r^2=0,32) между вероятностью модели генерировать пример из GSM8k и разрывом в производительности между GSM8k и GSM1k, что говорит о том, что многие модели могут частично запоминать GSM8k.