ChatPaper.aiChatPaper

Могут ли большие языковые модели понимать символьные графические программы?

Can Large Language Models Understand Symbolic Graphics Programs?

August 15, 2024
Авторы: Zeju Qiu, Weiyang Liu, Haiwen Feng, Zhen Liu, Tim Z. Xiao, Katherine M. Collins, Joshua B. Tenenbaum, Adrian Weller, Michael J. Black, Bernhard Schölkopf
cs.AI

Аннотация

Оценка возможностей больших языковых моделей (LLM) часто представляет собой сложную задачу, поскольку трудно найти задачи, с которыми они не сталкивались во время обучения. Мы предпринимаем шаг к решению этой проблемы, обратившись к новой задаче: сосредоточившись на символьных графических программах, которые являются популярным представлением графического контента, процедурно генерирующим визуальные данные. LLM показали захватывающий потенциал к синтезу программ, но понимают ли они символьные графические программы? В отличие от обычных программ, символьные графические программы могут быть преобразованы в графический контент. Здесь мы характеризуем понимание LLM символьных программ их способностью отвечать на вопросы, связанные с графическим контентом. Эта задача сложна, поскольку вопросы трудно ответить, опираясь только на символьные программы, но они легко решаются на основе соответствующего графического контента, как мы убеждаемся через человеческий эксперимент. Для понимания символьных программ LLM могут нуждаться в способности представить, как будет выглядеть соответствующий графический контент, не обращаясь непосредственно к отображенному визуальному контенту. Мы используем эту задачу для оценки LLM, создавая большой бенчмарк для семантического понимания символьных графических программ. Этот бенчмарк создан на основе соответствия программы-графика, требуя при этом минимальных усилий человека. Мы оцениваем текущие LLM на нашем бенчмарке, чтобы прояснить предварительную оценку их способности рассуждать о визуальных сценах по программам. Мы обнаруживаем, что эта задача различает существующие LLM и модели, считающиеся хорошими в рассуждениях, показывают лучшие результаты. Наконец, мы представляем Тюнинг Символьных Инструкций (SIT) для улучшения этой способности. Конкретно, мы опрашиваем GPT4-o вопросами и изображениями, сгенерированными символьными программами. Эти данные затем используются для дообучения LLM. Мы также обнаруживаем, что данные SIT могут улучшить общую способность следования инструкциям LLM.
English
Assessing the capabilities of large language models (LLMs) is often challenging, in part, because it is hard to find tasks to which they have not been exposed during training. We take one step to address this challenge by turning to a new task: focusing on symbolic graphics programs, which are a popular representation for graphics content that procedurally generates visual data. LLMs have shown exciting promise towards program synthesis, but do they understand symbolic graphics programs? Unlike conventional programs, symbolic graphics programs can be translated to graphics content. Here, we characterize an LLM's understanding of symbolic programs in terms of their ability to answer questions related to the graphics content. This task is challenging as the questions are difficult to answer from the symbolic programs alone -- yet, they would be easy to answer from the corresponding graphics content as we verify through a human experiment. To understand symbolic programs, LLMs may need to possess the ability to imagine how the corresponding graphics content would look without directly accessing the rendered visual content. We use this task to evaluate LLMs by creating a large benchmark for the semantic understanding of symbolic graphics programs. This benchmark is built via program-graphics correspondence, hence requiring minimal human efforts. We evaluate current LLMs on our benchmark to elucidate a preliminary assessment of their ability to reason about visual scenes from programs. We find that this task distinguishes existing LLMs and models considered good at reasoning perform better. Lastly, we introduce Symbolic Instruction Tuning (SIT) to improve this ability. Specifically, we query GPT4-o with questions and images generated by symbolic programs. Such data are then used to finetune an LLM. We also find that SIT data can improve the general instruction following ability of LLMs.

Summary

AI-Generated Summary

PDF72November 26, 2024