Agent-ValueBench: всеобъемлющий бенчмарк для оценки ценностей агентов
Agent-ValueBench: A Comprehensive Benchmark for Evaluating Agent Values
May 11, 2026
Авторы: Haonan Dong, Qiguan Feng, Kehan Jiang, Haoran Ye, Xin Zhang, Guojie Song
cs.AI
Аннотация
Автономные агенты стремительно эволюционировали как исполнители задач и получили широкое распространение через такие инструментальные средства, как OpenClaw. Вопросы безопасности справедливо привлекли растущее внимание исследователей, а в их основе лежат ценности, незаметно направляющие поведение агентов. Существующие бенчмарки ценностей, однако, остаются ограниченными языковыми моделями (LLM), оставляя ценности агентов в значительной степени неисследованными. С интуитивной, эмпирической и теоретической точек зрения мы показываем, что ценности агента расходятся с ценностями его базовой LLM, а сама агентная модальность вносит дополнительные проблемы на уровне набора данных, оценки и системы, отсутствующие в текстовых протоколах. Мы восполняем этот пробел с помощью Agent-ValueBench — первого бенчмарка, посвящённого ценностям агентов. Он включает 394 исполняемых среды в 16 доменах, предлагая 4 335 задач с конфликтами ценностей, охватывающих 28 ценностных систем и 332 измерения. Каждый экземпляр создан совместно через нашу специально разработанную сквозную цепочку и отобран профессиональными психологами по каждому экземпляру. Каждая задача снабжена двумя полярно-согласованными эталонными траекториями, чьи контрольные точки служат основой для оценщика на основе рубрикатора на уровне траектории. Проведя бенчмаркинг 14 передовых проприетарных моделей и моделей с открытыми весами на четырёх основных инструментальных средствах, мы выявили три взаимосвязанных вывода. Ценности агентов в первую очередь проявляются как Ценностный прилив — кросс-модельная однородность на фоне интерпретируемых противотечений. Этот прилив неаддитивно изменяется под воздействием инструментального средства, но ещё более решительно — при целенаправленном управлении через встроенные навыки. В совокупности эти результаты указывают на то, что рычаг выравнивания агентов смещается от классического выравнивания моделей и управления через подсказки к выравниванию инструментальных средств и управлению навыками.
English
Autonomous agents have rapidly matured as task executors and seen widespread deployment via harnesses such as OpenClaw. Safety concerns have rightly drawn growing research attention, and beneath them lie the values silently steering agent behavior. Existing value benchmarks, however, remain confined to LLMs, leaving agent values largely uncharted. From intuitive, empirical, and theoretical vantage points, we show that an agent's values diverge from those of its underlying LLM, and the agentic modality further introduces dataset-, evaluation-, and system-level challenges absent from text-only protocols. We close this gap with Agent-ValueBench, the first benchmark dedicated to agent values. It features 394 executable environments across 16 domains, offering 4,335 value-conflict tasks that cover 28 value systems and 332 dimensions. Every instance is co-synthesized through our purpose-built end-to-end pipeline and curated per-instance by professional psychologists. Each task ships with two pole-aligned golden trajectories whose checkpoints anchor a trajectory-level rubric-based judge. Benchmarking 14 frontier proprietary and open-weights models across 4 mainstream harnesses, we uncover three concerted findings. Agent values first manifest as a Value Tide of cross-model homogeneity beneath interpretable counter-currents. This tide bends non-additively under harness pull, and yet more decisively under deliberate steering via embedded skills. Together these results signal that the agent-alignment lever is shifting from classical model alignment and prompt steering toward harness alignment and skill steering.