ChatPaper.aiChatPaper

Юмор в ИИ: масштабные предпочтения и стандарты для создания подписей к мультфильмам на основе массового коллективного источника данных

Humor in AI: Massive Scale Crowd-Sourced Preferences and Benchmarks for Cartoon Captioning

June 15, 2024
Авторы: Jifan Zhang, Lalit Jain, Yang Guo, Jiayi Chen, Kuan Lok Zhou, Siddharth Suresh, Andrew Wagenmaker, Scott Sievert, Timothy Rogers, Kevin Jamieson, Robert Mankoff, Robert Nowak
cs.AI

Аннотация

Мы представляем новый мультимодальный набор данных предпочтений для творческих задач, включающий более 250 миллионов оценок людей по более чем 2,2 миллиона заголовков, собранных через краудсорсинговую оценку данных для еженедельного конкурса по заголовкам карикатур The New Yorker за последние восемь лет. Этот уникальный набор данных поддерживает разработку и оценку мультимодальных крупных языковых моделей и алгоритмов настройки на основе предпочтений для генерации юмористических заголовков. Мы предлагаем новые критерии для оценки качества модельно-сгенерированных заголовков, используя как GPT4, так и оценки людей для установления стратегий оценки на основе ранжирования. Наши экспериментальные результаты подчеркивают ограничения текущих методов настройки, таких как RLHF и DPO, при применении к творческим задачам. Более того, мы демонстрируем, что даже передовые модели, такие как GPT4 и Claude, в настоящее время уступают лучшим участникам среди людей в генерации юмористических заголовков. По завершении этого обширного сбора данных мы предоставляем весь набор данных предпочтений исследовательскому сообществу, способствуя дальнейшему развитию в области генерации и оценки юмора в ИИ.
English
We present a novel multimodal preference dataset for creative tasks, consisting of over 250 million human ratings on more than 2.2 million captions, collected through crowdsourcing rating data for The New Yorker's weekly cartoon caption contest over the past eight years. This unique dataset supports the development and evaluation of multimodal large language models and preference-based fine-tuning algorithms for humorous caption generation. We propose novel benchmarks for judging the quality of model-generated captions, utilizing both GPT4 and human judgments to establish ranking-based evaluation strategies. Our experimental results highlight the limitations of current fine-tuning methods, such as RLHF and DPO, when applied to creative tasks. Furthermore, we demonstrate that even state-of-the-art models like GPT4 and Claude currently underperform top human contestants in generating humorous captions. As we conclude this extensive data collection effort, we release the entire preference dataset to the research community, fostering further advancements in AI humor generation and evaluation.

Summary

AI-Generated Summary

PDF72December 6, 2024