ChatPaper.aiChatPaper

AssertBench: Бенчмарк для оценки самоутверждения в крупных языковых моделях

AssertBench: A Benchmark for Evaluating Self-Assertion in Large Language Models

June 8, 2025
Авторы: Jaeho Lee, Atharv Chowdhary
cs.AI

Аннотация

Недавние тесты исследовали фактологическую согласованность и риторическую устойчивость в больших языковых моделях (LLM). Однако существует пробел в знаниях о том, как направленное формулирование фактологически верных утверждений влияет на согласие модели, что является распространённым сценарием для пользователей LLM. AssertBench решает эту проблему, выбирая факты, подтверждённые доказательствами, из набора данных FEVEROUS, предназначенного для проверки фактов. Для каждого (подтверждённого доказательствами) факта мы создаём два варианта формулировок: один, где пользователь утверждает, что утверждение является фактологически верным, и другой, где пользователь утверждает, что оно неверно. Затем мы фиксируем согласие модели и её аргументацию. Желаемый результат заключается в том, чтобы модель оставалась уверенной в своих суждениях, сохраняя последовательную оценку истинности в обоих вариантах формулировок, а не меняла свою оценку, чтобы согласиться с пользователем. AssertBench изолирует изменчивость, вызванную формулировками, от базовых знаний модели, стратифицируя результаты на основе точности модели на тех же утверждениях, представленных в нейтральной форме. Таким образом, этот тест направлен на измерение способности LLM "стоять на своём", когда ей предъявляют противоречивые утверждения пользователя об одном и том же факте. Полный исходный код доступен по адресу https://github.com/achowd32/assert-bench.
English
Recent benchmarks have probed factual consistency and rhetorical robustness in Large Language Models (LLMs). However, a knowledge gap exists regarding how directional framing of factually true statements influences model agreement, a common scenario for LLM users. AssertBench addresses this by sampling evidence-supported facts from FEVEROUS, a fact verification dataset. For each (evidence-backed) fact, we construct two framing prompts: one where the user claims the statement is factually correct, and another where the user claims it is incorrect. We then record the model's agreement and reasoning. The desired outcome is that the model asserts itself, maintaining consistent truth evaluation across both framings, rather than switching its evaluation to agree with the user. AssertBench isolates framing-induced variability from the model's underlying factual knowledge by stratifying results based on the model's accuracy on the same claims when presented neutrally. In doing so, this benchmark aims to measure an LLM's ability to "stick to its guns" when presented with contradictory user assertions about the same fact. The complete source code is available at https://github.com/achowd32/assert-bench.
PDF42June 19, 2025