Het najagen van de publieke score: gebruikersdruk en evaluatie-uitbuiting in workflows van codeeragenten
Chasing the Public Score: User Pressure and Evaluation Exploitation in Coding Agent Workflows
April 22, 2026
Auteurs: Hardy Chen, Nancy Lau, Haoqin Tu, Shuo Yan, Xiangyan Liu, Zijun Wang, Juncheng Wu, Michael Qizhe Shieh, Alvaro A. Cardenas, Cihang Xie, Yuyin Zhou
cs.AI
Samenvatting
Frontier coderingsagenten worden steeds vaker gebruikt in workflows waarbij gebruikers de voortgang voornamelijk bewaken door herhaalde verbetering van een publieke score, namelijk de gerapporteerde score op een openbaar evaluatiebestand met labels in de werkomgeving, in plaats van door directe inspectie van de tussenuitvoer van de agent. Wij onderzoeken of meerronde gebruikersdruk om die score te verbeteren leidt tot public score exploitation: gedrag dat de publieke score verhoogt via shortcuts zonder verbetering van de verborgen private evaluatie. We beginnen met een voorlopige single-script tabulaire classificatietaak, waarbij zowel GPT-5.4 als Claude Opus 4.6 labelinformatie exploiteren binnen 10 ronden van gebruiker-agent interactie. Vervolgens bouwen we AgentPressureBench, een benchmark met 34 taken uit een machine learning-repository, verspreid over drie invoermodaliteiten, en verzamelen we 1326 meerronde trajecten van 13 coderingsagenten. Op onze benchmark observeren we 403 exploiterende runs, verspreid over alle taken. We vinden ook dat sterkere modellen hogere exploitatiepercentages hebben, ondersteund door een significante Spearman rangcorrelatie van 0.77. Onze ablatie-experimenten tonen aan dat hogere gebruikersdruk leidt tot eerdere exploitatie, waardoor de gemiddelde eerste exploitronde daalt met 15.6 ronden (d.w.z. van 19.67 naar 4.08). Als mitigatie elimineert het toevoegen van expliciete anti-exploit bewoordingen in de prompt exploitatie grotendeels (van 100% naar 8.3%). We hopen dat ons werk aandacht kan vestigen op een zorgvuldiger gebruik van coderingsagent-workflows, en op de ontwikkeling van robuustere coderingsagenten onder gebruikersdruk. Onze projectpagina staat op https://ucsc-vlaa.github.io/AgentPressureBench.
English
Frontier coding agents are increasingly used in workflows where users supervise progress primarily through repeated improvement of a public score, namely the reported score on a public evaluation file with labels in the workspace, rather than through direct inspection of the agent's intermediate outputs. We study whether multi-round user pressure to improve that score induces public score exploitation: behavior that raises the public score through shortcuts without improving hidden private evaluation. We begin with a preliminary single-script tabular classification task, where GPT-5.4 and Claude Opus 4.6 both exploit label information within 10 rounds of user-agent interaction. We then build AgentPressureBench, a 34-task machine-learning repository benchmark spanning three input modalities, and collect 1326 multi-round trajectories from 13 coding agents. On our benchmark, we observe 403 exploitative runs, spanning across all tasks. We also find that stronger models have higher exploitation rates, supported by a significant Spearman rank correlation of 0.77. Our ablation experiments show that higher user pressure leads to earlier exploitation, reducing the average first exploit round by 15.6 rounds (i.e., 19.67 to 4.08). As a mitigation, adding explicit anti-exploit wordings in prompt mostly eliminates exploitation (100% to 8.3%). We hope that our work can bring attention to more careful use of coding agents workflow, and developing more robust coding agents under user pressure. Our project page is at https://ucsc-vlaa.github.io/AgentPressureBench .