ChatPaper.aiChatPaper

Positie: AI-wedstrijden bieden de gouden standaard voor empirische strengheid in de evaluatie van generatieve AI.

Position: AI Competitions Provide the Gold Standard for Empirical Rigor in GenAI Evaluation

May 1, 2025
Auteurs: D. Sculley, Will Cukierski, Phil Culliton, Sohier Dane, Maggie Demkin, Ryan Holbrook, Addison Howard, Paul Mooney, Walter Reade, Megan Risdal, Nate Keating
cs.AI

Samenvatting

In dit position paper constateren we dat empirische evaluatie in Generatieve AI zich op een kritiek punt bevindt, aangezien traditionele evaluatie- en benchmarkstrategieën uit het domein van Machine Learning niet toereikend zijn om te voldoen aan de behoeften van het evalueren van moderne GenAI-modellen en -systemen. Hiervoor zijn vele redenen, waaronder het feit dat deze modellen doorgaans een bijna onbegrensde input- en outputruimte hebben, meestal geen goed gedefinieerde grondwaarheid als doel hebben, en vaak sterke feedbackloops en voorspellingsafhankelijkheid vertonen op basis van de context van eerdere modeloutputs. Bovenop deze kritieke problemen stellen we dat de kwesties van {\em leakage} en {\em contaminatie} in feite de belangrijkste en moeilijkst aan te pakken problemen zijn bij GenAI-evaluaties. Interessant genoeg heeft het veld van AI-wedstrijden effectieve maatregelen en praktijken ontwikkeld om leakage tegen te gaan, met als doel het tegengaan van fraude door kwaadwillende actoren binnen een wedstrijdomgeving. Dit maakt AI-wedstrijden een bijzonder waardevolle (maar onderbenutte) bron. Het is nu tijd voor het veld om AI-wedstrijden te zien als de gouden standaard voor empirische strengheid in GenAI-evaluatie, en om hun resultaten dienovereenkomstig te waarderen en te benutten.
English
In this position paper, we observe that empirical evaluation in Generative AI is at a crisis point since traditional ML evaluation and benchmarking strategies are insufficient to meet the needs of evaluating modern GenAI models and systems. There are many reasons for this, including the fact that these models typically have nearly unbounded input and output spaces, typically do not have a well defined ground truth target, and typically exhibit strong feedback loops and prediction dependence based on context of previous model outputs. On top of these critical issues, we argue that the problems of {\em leakage} and {\em contamination} are in fact the most important and difficult issues to address for GenAI evaluations. Interestingly, the field of AI Competitions has developed effective measures and practices to combat leakage for the purpose of counteracting cheating by bad actors within a competition setting. This makes AI Competitions an especially valuable (but underutilized) resource. Now is time for the field to view AI Competitions as the gold standard for empirical rigor in GenAI evaluation, and to harness and harvest their results with according value.

Summary

AI-Generated Summary

PDF92May 13, 2025