ChatPaper.aiChatPaper

Humor in AI: Grootschalige Crowd-Sourced Voorkeuren en Benchmarks voor Cartoonbijschriften

Humor in AI: Massive Scale Crowd-Sourced Preferences and Benchmarks for Cartoon Captioning

June 15, 2024
Auteurs: Jifan Zhang, Lalit Jain, Yang Guo, Jiayi Chen, Kuan Lok Zhou, Siddharth Suresh, Andrew Wagenmaker, Scott Sievert, Timothy Rogers, Kevin Jamieson, Robert Mankoff, Robert Nowak
cs.AI

Samenvatting

We presenteren een nieuw multimodaal voorkeursdataset voor creatieve taken, bestaande uit meer dan 250 miljoen menselijke beoordelingen van meer dan 2,2 miljoen bijschriften, verzameld via crowdsourcing van beoordelingsgegevens voor de wekelijkse cartoonbijschriftenwedstrijd van The New Yorker over de afgelopen acht jaar. Deze unieke dataset ondersteunt de ontwikkeling en evaluatie van multimodale grote taalmodellen en voorkeursgebaseerde fine-tuning algoritmen voor het genereren van humoristische bijschriften. We stellen nieuwe benchmarks voor om de kwaliteit van modelgegenereerde bijschriften te beoordelen, waarbij we zowel GPT4 als menselijke oordelen gebruiken om op rangschikking gebaseerde evaluatiestrategieën vast te stellen. Onze experimentele resultaten benadrukken de beperkingen van huidige fine-tuning methoden, zoals RLHF en DPO, wanneer deze worden toegepast op creatieve taken. Bovendien tonen we aan dat zelfs state-of-the-art modellen zoals GPT4 en Claude momenteel onderpresteren in vergelijking met de beste menselijke deelnemers in het genereren van humoristische bijschriften. Terwijl we deze uitgebreide dataverzamelingsinspanning afronden, maken we de volledige voorkeursdataset beschikbaar voor de onderzoeksgemeenschap, om verdere vooruitgang in AI-humorgeneratie en -evaluatie te bevorderen.
English
We present a novel multimodal preference dataset for creative tasks, consisting of over 250 million human ratings on more than 2.2 million captions, collected through crowdsourcing rating data for The New Yorker's weekly cartoon caption contest over the past eight years. This unique dataset supports the development and evaluation of multimodal large language models and preference-based fine-tuning algorithms for humorous caption generation. We propose novel benchmarks for judging the quality of model-generated captions, utilizing both GPT4 and human judgments to establish ranking-based evaluation strategies. Our experimental results highlight the limitations of current fine-tuning methods, such as RLHF and DPO, when applied to creative tasks. Furthermore, we demonstrate that even state-of-the-art models like GPT4 and Claude currently underperform top human contestants in generating humorous captions. As we conclude this extensive data collection effort, we release the entire preference dataset to the research community, fostering further advancements in AI humor generation and evaluation.
PDF72February 8, 2026