ChatPaper.aiChatPaper

MIT-10M: Um Grande Corpus Paralelo em Grande Escala de Tradução de Imagens Multilíngues

MIT-10M: A Large Scale Parallel Corpus of Multilingual Image Translation

December 10, 2024
Autores: Bo Li, Shaolin Zhu, Lijie Wen
cs.AI

Resumo

A Tradução de Imagens (TI) possui um enorme potencial em diversos domínios, permitindo a tradução de conteúdo textual dentro de imagens para várias línguas. No entanto, os conjuntos de dados existentes frequentemente sofrem com limitações em escala, diversidade e qualidade, o que dificulta o desenvolvimento e a avaliação de modelos de TI. Para abordar essa questão, apresentamos o MIT-10M, um corpus paralelo em larga escala de tradução de imagens multilíngue com mais de 10 milhões de pares de imagens-texto derivados de dados do mundo real, que passaram por extensa limpeza de dados e validação de tradução multilíngue. Ele contém 840 mil imagens em três tamanhos, 28 categorias, tarefas com três níveis de dificuldade e 14 pares de idiomas de imagens-texto, o que representa uma melhoria considerável em relação aos conjuntos de dados existentes. Realizamos experimentos extensivos para avaliar e treinar modelos no MIT-10M. Os resultados experimentais indicam claramente que nosso conjunto de dados possui maior adaptabilidade quando se trata de avaliar o desempenho dos modelos ao lidar com tarefas desafiadoras e complexas de tradução de imagens no mundo real. Além disso, o desempenho do modelo ajustado com o MIT-10M triplicou em comparação com o modelo de referência, confirmando ainda mais sua superioridade.
English
Image Translation (IT) holds immense potential across diverse domains, enabling the translation of textual content within images into various languages. However, existing datasets often suffer from limitations in scale, diversity, and quality, hindering the development and evaluation of IT models. To address this issue, we introduce MIT-10M, a large-scale parallel corpus of multilingual image translation with over 10M image-text pairs derived from real-world data, which has undergone extensive data cleaning and multilingual translation validation. It contains 840K images in three sizes, 28 categories, tasks with three levels of difficulty and 14 languages image-text pairs, which is a considerable improvement on existing datasets. We conduct extensive experiments to evaluate and train models on MIT-10M. The experimental results clearly indicate that our dataset has higher adaptability when it comes to evaluating the performance of the models in tackling challenging and complex image translation tasks in the real world. Moreover, the performance of the model fine-tuned with MIT-10M has tripled compared to the baseline model, further confirming its superiority.

Summary

AI-Generated Summary

PDF52December 12, 2024