ChatPaper.aiChatPaper

GENOME : Raisonnement visuel neuro-symbolique génératif par croissance et réutilisation de modules

GENOME: GenerativE Neuro-symbOlic visual reasoning by growing and reusing ModulEs

November 8, 2023
Auteurs: Zhenfang Chen, Rui Sun, Wenjun Liu, Yining Hong, Chuang Gan
cs.AI

Résumé

Les travaux récents ont démontré que les grands modèles de langage (LLMs) pourraient renforcer les modèles neuro-symboliques traditionnels grâce à des capacités de programmation permettant de traduire le langage en descriptions de modules, obtenant ainsi des résultats solides en raisonnement visuel tout en maintenant la transparence et l'efficacité du modèle. Cependant, ces modèles génèrent généralement de manière exhaustive l'intégralité du snippet de code pour chaque nouvelle instance d'une tâche, ce qui est extrêmement inefficace. Nous proposons un raisonnement visuel neuro-symbolique génératif en développant et en réutilisant des modules. Plus précisément, notre modèle se compose de trois étapes distinctes : l'initialisation des modules, la génération des modules et l'exécution des modules. Tout d'abord, étant donné une tâche vision-langage, nous utilisons des LLMs pour déterminer si nous pouvons réutiliser et étendre des modules existants pour traiter cette nouvelle tâche. Si ce n'est pas le cas, nous initialisons un nouveau module nécessaire à la tâche et spécifions les entrées et sorties de ce nouveau module. Ensuite, le nouveau module est créé en interrogeant les LLMs pour générer des snippets de code correspondant aux exigences. Afin de mieux évaluer les capacités du nouveau module, nous utilisons des exemples d'entraînement few-shot comme cas tests pour vérifier si notre nouveau module peut les réussir. Si c'est le cas, le nouveau module est ajouté à la bibliothèque de modules pour une réutilisation future. Enfin, nous évaluons la performance de notre modèle sur l'ensemble de test en exécutant les programmes analysés avec les nouveaux modules visuels pour obtenir les résultats. Nous constatons que le modèle proposé présente plusieurs avantages. Premièrement, il performe de manière compétitive sur des tâches standard comme la réponse à des questions visuelles et la compréhension d'expressions référentielles ; deuxièmement, les modules appris à partir d'une tâche peuvent être transférés de manière transparente à de nouvelles tâches ; enfin et surtout, il est capable de s'adapter à de nouvelles tâches de raisonnement visuel en observant quelques exemples d'entraînement et en réutilisant des modules.
English
Recent works have shown that Large Language Models (LLMs) could empower traditional neuro-symbolic models via programming capabilities to translate language into module descriptions, thus achieving strong visual reasoning results while maintaining the model's transparency and efficiency. However, these models usually exhaustively generate the entire code snippet given each new instance of a task, which is extremely ineffective. We propose generative neuro-symbolic visual reasoning by growing and reusing modules. Specifically, our model consists of three unique stages, module initialization, module generation, and module execution. First, given a vision-language task, we adopt LLMs to examine whether we could reuse and grow over established modules to handle this new task. If not, we initialize a new module needed by the task and specify the inputs and outputs of this new module. After that, the new module is created by querying LLMs to generate corresponding code snippets that match the requirements. In order to get a better sense of the new module's ability, we treat few-shot training examples as test cases to see if our new module could pass these cases. If yes, the new module is added to the module library for future reuse. Finally, we evaluate the performance of our model on the testing set by executing the parsed programs with the newly made visual modules to get the results. We find the proposed model possesses several advantages. First, it performs competitively on standard tasks like visual question answering and referring expression comprehension; Second, the modules learned from one task can be seamlessly transferred to new tasks; Last but not least, it is able to adapt to new visual reasoning tasks by observing a few training examples and reusing modules.
PDF110December 15, 2024