ChatPaper.aiChatPaper

ChartNet: Многомиллионный высококачественный мультимодальный набор данных для надежного анализа диаграмм

ChartNet: A Million-Scale, High-Quality Multimodal Dataset for Robust Chart Understanding

March 28, 2026
Авторы: Jovana Kondic, Pengyuan Li, Dhiraj Joshi, Isaac Sanchez, Ben Wiesel, Shafiq Abedin, Amit Alfassy, Eli Schwartz, Daniel Caraballo, Yagmur Gizem Cinar, Florian Scheidegger, Steven I. Ross, Daniel Karl I. Weidele, Hang Hua, Ekaterina Arutyunova, Roei Herzig, Zexue He, Zihan Wang, Xinyue Yu, Yunfei Zhao, Sicong Jiang, Minghao Liu, Qunshu Lin, Peter Staar, Luis Lastras, Aude Oliva, Rogerio Feris
cs.AI

Аннотация

Понимание диаграмм требует от моделей способности совместно анализировать геометрические визуальные паттерны, структурированные числовые данные и естественный язык — область, где современные мультимодальные модели (VLMs) остаются ограниченными. Мы представляем ChartNet, высококачественный многомиллионный мультимодальный набор данных, разработанный для развития интерпретации и анализа диаграмм. ChartNet использует новый конвейер синтеза на основе кода для генерации 1,5 миллиона разнообразных образцов диаграмм, охватывающих 24 типа графиков и 6 библиотек визуализации. Каждый образец состоит из пяти согласованных компонентов: код построения, визуализированное изображение диаграммы, таблица данных, текстовое описание и вопросы с ответами и обоснованием, что обеспечивает детальное межмодальное соответствие. Для охвата полного спектра понимания диаграмм ChartNet дополнительно включает специализированные подмножества: данные с аннотациями экспертов, реальные данные, вопросы безопасности и проверки обоснованности. Строгий конвейер фильтрации качества гарантирует визуальную точность, семантическую корректность и разнообразие представлений диаграмм. Дообучение на ChartNet стабильно улучшает результаты across бенчмаркам, демонстрируя его utility как масштабный источник supervision для мультимодальных моделей. Являясь крупнейшим открытым набором данных такого рода, ChartNet призван поддержать разработку фундаментальных моделей с robust и обобщаемыми capabilities для понимания визуализации данных. Набор данных доступен по адресу: https://huggingface.co/datasets/ibm-granite/ChartNet.
English
Understanding charts requires models to jointly reason over geometric visual patterns, structured numerical data, and natural language -- a capability where current vision-language models (VLMs) remain limited. We introduce ChartNet, a high-quality, million-scale multimodal dataset designed to advance chart interpretation and reasoning. ChartNet leverages a novel code-guided synthesis pipeline to generate 1.5 million diverse chart samples spanning 24 chart types and 6 plotting libraries. Each sample consists of five aligned components: plotting code, rendered chart image, data table, natural language summary, and question-answering with reasoning, providing fine-grained cross-modal alignment. To capture the full spectrum of chart comprehension, ChartNet additionally includes specialized subsets encompassing human annotated data, real-world data, safety, and grounding. Moreover, a rigorous quality-filtering pipeline ensures visual fidelity, semantic accuracy, and diversity across chart representations. Fine-tuning on ChartNet consistently improves results across benchmarks, demonstrating its utility as large-scale supervision for multimodal models. As the largest open-source dataset of its kind, ChartNet aims to support the development of foundation models with robust and generalizable capabilities for data visualization understanding. The dataset is publicly available at https://huggingface.co/datasets/ibm-granite/ChartNet
PDF111April 1, 2026