Юмор в ИИ: масштабные предпочтения и стандарты для создания подписей к мультфильмам на основе массового коллективного источника данных
Humor in AI: Massive Scale Crowd-Sourced Preferences and Benchmarks for Cartoon Captioning
June 15, 2024
Авторы: Jifan Zhang, Lalit Jain, Yang Guo, Jiayi Chen, Kuan Lok Zhou, Siddharth Suresh, Andrew Wagenmaker, Scott Sievert, Timothy Rogers, Kevin Jamieson, Robert Mankoff, Robert Nowak
cs.AI
Аннотация
Мы представляем новый мультимодальный набор данных предпочтений для творческих задач, включающий более 250 миллионов оценок людей по более чем 2,2 миллиона заголовков, собранных через краудсорсинговую оценку данных для еженедельного конкурса по заголовкам карикатур The New Yorker за последние восемь лет. Этот уникальный набор данных поддерживает разработку и оценку мультимодальных крупных языковых моделей и алгоритмов настройки на основе предпочтений для генерации юмористических заголовков. Мы предлагаем новые критерии для оценки качества модельно-сгенерированных заголовков, используя как GPT4, так и оценки людей для установления стратегий оценки на основе ранжирования. Наши экспериментальные результаты подчеркивают ограничения текущих методов настройки, таких как RLHF и DPO, при применении к творческим задачам. Более того, мы демонстрируем, что даже передовые модели, такие как GPT4 и Claude, в настоящее время уступают лучшим участникам среди людей в генерации юмористических заголовков. По завершении этого обширного сбора данных мы предоставляем весь набор данных предпочтений исследовательскому сообществу, способствуя дальнейшему развитию в области генерации и оценки юмора в ИИ.
English
We present a novel multimodal preference dataset for creative tasks,
consisting of over 250 million human ratings on more than 2.2 million captions,
collected through crowdsourcing rating data for The New Yorker's weekly cartoon
caption contest over the past eight years. This unique dataset supports the
development and evaluation of multimodal large language models and
preference-based fine-tuning algorithms for humorous caption generation. We
propose novel benchmarks for judging the quality of model-generated captions,
utilizing both GPT4 and human judgments to establish ranking-based evaluation
strategies. Our experimental results highlight the limitations of current
fine-tuning methods, such as RLHF and DPO, when applied to creative tasks.
Furthermore, we demonstrate that even state-of-the-art models like GPT4 and
Claude currently underperform top human contestants in generating humorous
captions. As we conclude this extensive data collection effort, we release the
entire preference dataset to the research community, fostering further
advancements in AI humor generation and evaluation.Summary
AI-Generated Summary