ChatPaper.aiChatPaper

WebLINX : Navigation sur des sites web réels avec dialogue multi-tours

WebLINX: Real-World Website Navigation with Multi-Turn Dialogue

February 8, 2024
Auteurs: Xing Han Lù, Zdeněk Kasner, Siva Reddy
cs.AI

Résumé

Nous proposons le problème de la navigation web conversationnelle, dans lequel un agent numérique contrôle un navigateur web et suit les instructions de l'utilisateur pour résoudre des tâches du monde réel dans un dialogue multi-tours. Pour soutenir ce problème, nous introduisons WEBLINX - un benchmark à grande échelle de 100 000 interactions issues de 2 300 démonstrations expertes de navigation web conversationnelle. Notre benchmark couvre un large éventail de modèles sur plus de 150 sites web réels et peut être utilisé pour entraîner et évaluer des agents dans divers scénarios. En raison de la quantité d'informations présentes, les modèles de langage de grande taille (LLMs) ne peuvent pas traiter des pages web entières en temps réel. Pour résoudre ce goulot d'étranglement, nous concevons un modèle inspiré de la récupération d'information qui élimine efficacement les pages HTML en classant les éléments pertinents. Nous utilisons les éléments sélectionnés, ainsi que des captures d'écran et l'historique des actions, pour évaluer une variété de modèles quant à leur capacité à reproduire le comportement humain lors de la navigation sur le web. Nos expériences vont des petits modèles textuels aux LLMs multimodaux propriétaires. Nous constatons que les petits décodeurs affinés surpassent les meilleurs LLMs en zero-shot (y compris GPT-4V), mais aussi les modèles multimodaux affinés de plus grande taille qui ont été explicitement pré-entraînés sur des captures d'écran. Cependant, tous les modèles affinés peinent à généraliser à des sites web non vus. Nos résultats mettent en évidence la nécessité de grands modèles multimodaux capables de généraliser à de nouveaux contextes. Notre code, données et modèles sont disponibles pour la recherche : https://mcgill-nlp.github.io/weblinx
English
We propose the problem of conversational web navigation, where a digital agent controls a web browser and follows user instructions to solve real-world tasks in a multi-turn dialogue fashion. To support this problem, we introduce WEBLINX - a large-scale benchmark of 100K interactions across 2300 expert demonstrations of conversational web navigation. Our benchmark covers a broad range of patterns on over 150 real-world websites and can be used to train and evaluate agents in diverse scenarios. Due to the magnitude of information present, Large Language Models (LLMs) cannot process entire web pages in real-time. To solve this bottleneck, we design a retrieval-inspired model that efficiently prunes HTML pages by ranking relevant elements. We use the selected elements, along with screenshots and action history, to assess a variety of models for their ability to replicate human behavior when navigating the web. Our experiments span from small text-only to proprietary multimodal LLMs. We find that smaller finetuned decoders surpass the best zero-shot LLMs (including GPT-4V), but also larger finetuned multimodal models which were explicitly pretrained on screenshots. However, all finetuned models struggle to generalize to unseen websites. Our findings highlight the need for large multimodal models that can generalize to novel settings. Our code, data and models are available for research: https://mcgill-nlp.github.io/weblinx
PDF404December 15, 2024