Positie: AI-wedstrijden bieden de gouden standaard voor empirische strengheid in de evaluatie van generatieve AI.
Position: AI Competitions Provide the Gold Standard for Empirical Rigor in GenAI Evaluation
May 1, 2025
Auteurs: D. Sculley, Will Cukierski, Phil Culliton, Sohier Dane, Maggie Demkin, Ryan Holbrook, Addison Howard, Paul Mooney, Walter Reade, Megan Risdal, Nate Keating
cs.AI
Samenvatting
In dit position paper constateren we dat empirische evaluatie in Generatieve AI zich op een kritiek punt bevindt, aangezien traditionele evaluatie- en benchmarkstrategieën uit het domein van Machine Learning niet toereikend zijn om te voldoen aan de behoeften van het evalueren van moderne GenAI-modellen en -systemen. Hiervoor zijn vele redenen, waaronder het feit dat deze modellen doorgaans een bijna onbegrensde input- en outputruimte hebben, meestal geen goed gedefinieerde grondwaarheid als doel hebben, en vaak sterke feedbackloops en voorspellingsafhankelijkheid vertonen op basis van de context van eerdere modeloutputs. Bovenop deze kritieke problemen stellen we dat de kwesties van {\em leakage} en {\em contaminatie} in feite de belangrijkste en moeilijkst aan te pakken problemen zijn bij GenAI-evaluaties. Interessant genoeg heeft het veld van AI-wedstrijden effectieve maatregelen en praktijken ontwikkeld om leakage tegen te gaan, met als doel het tegengaan van fraude door kwaadwillende actoren binnen een wedstrijdomgeving. Dit maakt AI-wedstrijden een bijzonder waardevolle (maar onderbenutte) bron. Het is nu tijd voor het veld om AI-wedstrijden te zien als de gouden standaard voor empirische strengheid in GenAI-evaluatie, en om hun resultaten dienovereenkomstig te waarderen en te benutten.
English
In this position paper, we observe that empirical evaluation in Generative AI
is at a crisis point since traditional ML evaluation and benchmarking
strategies are insufficient to meet the needs of evaluating modern GenAI models
and systems. There are many reasons for this, including the fact that these
models typically have nearly unbounded input and output spaces, typically do
not have a well defined ground truth target, and typically exhibit strong
feedback loops and prediction dependence based on context of previous model
outputs. On top of these critical issues, we argue that the problems of {\em
leakage} and {\em contamination} are in fact the most important and difficult
issues to address for GenAI evaluations. Interestingly, the field of AI
Competitions has developed effective measures and practices to combat leakage
for the purpose of counteracting cheating by bad actors within a competition
setting. This makes AI Competitions an especially valuable (but underutilized)
resource. Now is time for the field to view AI Competitions as the gold
standard for empirical rigor in GenAI evaluation, and to harness and harvest
their results with according value.Summary
AI-Generated Summary