ChatPaper.aiChatPaper

ChartNet: Een Multimodaal Dataset van Miljoenen Schaal met Hoge Kwaliteit voor Robuust Begrip van Grafieken

ChartNet: A Million-Scale, High-Quality Multimodal Dataset for Robust Chart Understanding

March 28, 2026
Auteurs: Jovana Kondic, Pengyuan Li, Dhiraj Joshi, Isaac Sanchez, Ben Wiesel, Shafiq Abedin, Amit Alfassy, Eli Schwartz, Daniel Caraballo, Yagmur Gizem Cinar, Florian Scheidegger, Steven I. Ross, Daniel Karl I. Weidele, Hang Hua, Ekaterina Arutyunova, Roei Herzig, Zexue He, Zihan Wang, Xinyue Yu, Yunfei Zhao, Sicong Jiang, Minghao Liu, Qunshu Lin, Peter Staar, Luis Lastras, Aude Oliva, Rogerio Feris
cs.AI

Samenvatting

Het begrijpen van grafieken vereist dat modellen gezamenlijk kunnen redeneren over geometrische visuele patronen, gestructureerde numerieke gegevens en natuurlijke taal – een capaciteit waarin huidige visie-taalmodellen (VLM's) beperkt blijven. Wij introduceren ChartNet, een hoogwaardige, multimodale dataset op miljoenschaal, ontworpen om grafiekinterpretatie en -redenering te bevorderen. ChartNet maakt gebruik van een nieuwe code-gestuurde synthese-pijplijn om 1,5 miljoen diverse grafiekvoorbeelden te genereren, verdeeld over 24 grafiektypes en 6 plotbibliotheken. Elk voorbeeld bestaat uit vijf uitgelijnde componenten: plotcode, gerenderde grafiekafbeelding, gegevenstabel, samenvatting in natuurlijke taal en vraag-antwoord met redenering, waardoor een fijnmazige cross-modale uitlijning wordt geboden. Om het volledige spectrum van grafiekbegrip te omvatten, bevat ChartNet bovendien gespecialiseerde subsets met door mensen geannoteerde gegevens, real-world gegevens, veiligheid en gronding. Daarnaast zorgt een rigoureus kwaliteitsfilteringsproces voor visuele trouw, semantische nauwkeurigheid en diversiteit in grafiekrepresentaties. Fine-tuning op ChartNet levert consistente verbeteringen op across benchmarks, wat de bruikbaarheid ervan als grootschalige supervisie voor multimodale modellen aantoont. Als de grootste open-source dataset in zijn soort, beoogt ChartNet de ontwikkeling van foundation-modellen te ondersteunen met robuuste en generaliseerbare capaciteiten voor het begrijpen van datavisualisaties. De dataset is openbaar beschikbaar op https://huggingface.co/datasets/ibm-granite/ChartNet.
English
Understanding charts requires models to jointly reason over geometric visual patterns, structured numerical data, and natural language -- a capability where current vision-language models (VLMs) remain limited. We introduce ChartNet, a high-quality, million-scale multimodal dataset designed to advance chart interpretation and reasoning. ChartNet leverages a novel code-guided synthesis pipeline to generate 1.5 million diverse chart samples spanning 24 chart types and 6 plotting libraries. Each sample consists of five aligned components: plotting code, rendered chart image, data table, natural language summary, and question-answering with reasoning, providing fine-grained cross-modal alignment. To capture the full spectrum of chart comprehension, ChartNet additionally includes specialized subsets encompassing human annotated data, real-world data, safety, and grounding. Moreover, a rigorous quality-filtering pipeline ensures visual fidelity, semantic accuracy, and diversity across chart representations. Fine-tuning on ChartNet consistently improves results across benchmarks, demonstrating its utility as large-scale supervision for multimodal models. As the largest open-source dataset of its kind, ChartNet aims to support the development of foundation models with robust and generalizable capabilities for data visualization understanding. The dataset is publicly available at https://huggingface.co/datasets/ibm-granite/ChartNet
PDF262April 17, 2026