ChatPaper.aiChatPaper

LLM-Grounder : Ancrage visuel 3D en vocabulaire ouvert avec un grand modèle de langage comme agent

LLM-Grounder: Open-Vocabulary 3D Visual Grounding with Large Language Model as an Agent

September 21, 2023
Auteurs: Jianing Yang, Xuweiyi Chen, Shengyi Qian, Nikhil Madaan, Madhavan Iyengar, David F. Fouhey, Joyce Chai
cs.AI

Résumé

L'ancrage visuel 3D est une compétence essentielle pour les robots domestiques, leur permettant de naviguer, manipuler des objets et répondre à des questions en fonction de leur environnement. Alors que les approches existantes reposent souvent sur des données étiquetées massives ou présentent des limites dans la gestion de requêtes linguistiques complexes, nous proposons LLM-Grounder, un nouveau pipeline d'ancrage visuel 3D basé sur un modèle de langage de grande taille (LLM), fonctionnant en mode zéro-shot et à vocabulaire ouvert. LLM-Grounder utilise un LLM pour décomposer les requêtes en langage naturel complexes en constituants sémantiques et emploie un outil d'ancrage visuel, tel qu'OpenScene ou LERF, pour identifier les objets dans une scène 3D. Le LLM évalue ensuite les relations spatiales et de bon sens entre les objets proposés pour prendre une décision finale d'ancrage. Notre méthode ne nécessite aucune donnée d'entraînement étiquetée et peut généraliser à de nouvelles scènes 3D et à des requêtes textuelles arbitraires. Nous évaluons LLM-Grounder sur le benchmark ScanRefer et démontrons une précision d'ancrage zéro-shot de pointe. Nos résultats indiquent que les LLM améliorent significativement la capacité d'ancrage, en particulier pour les requêtes linguistiques complexes, faisant de LLM-Grounder une approche efficace pour les tâches vision-langage 3D en robotique. Des vidéos et des démonstrations interactives sont disponibles sur le site du projet : https://chat-with-nerf.github.io/.
English
3D visual grounding is a critical skill for household robots, enabling them to navigate, manipulate objects, and answer questions based on their environment. While existing approaches often rely on extensive labeled data or exhibit limitations in handling complex language queries, we propose LLM-Grounder, a novel zero-shot, open-vocabulary, Large Language Model (LLM)-based 3D visual grounding pipeline. LLM-Grounder utilizes an LLM to decompose complex natural language queries into semantic constituents and employs a visual grounding tool, such as OpenScene or LERF, to identify objects in a 3D scene. The LLM then evaluates the spatial and commonsense relations among the proposed objects to make a final grounding decision. Our method does not require any labeled training data and can generalize to novel 3D scenes and arbitrary text queries. We evaluate LLM-Grounder on the ScanRefer benchmark and demonstrate state-of-the-art zero-shot grounding accuracy. Our findings indicate that LLMs significantly improve the grounding capability, especially for complex language queries, making LLM-Grounder an effective approach for 3D vision-language tasks in robotics. Videos and interactive demos can be found on the project website https://chat-with-nerf.github.io/ .
PDF172December 15, 2024