ChatPaper.aiChatPaper

"L'ingresso del caffè sembra accessibile? Dov'è la porta?" Verso Agenti di Intelligenza Geospaziale per Indagini Visive

"Does the cafe entrance look accessible? Where is the door?" Towards Geospatial AI Agents for Visual Inquiries

August 21, 2025
Autori: Jon E. Froehlich, Jared Hwang, Zeyu Wang, John S. O'Meara, Xia Su, William Huang, Yang Zhang, Alex Fiannaca, Philip Nelson, Shaun Kane
cs.AI

Abstract

Le mappe digitali interattive hanno rivoluzionato il modo in cui le persone viaggiano e apprendono il mondo; tuttavia, si basano su dati strutturati preesistenti nei database GIS (ad esempio, reti stradali, indici di punti di interesse), limitando la loro capacità di affrontare domande geo-visuali relative all'aspetto del mondo. Presentiamo la nostra visione per gli Agenti Geo-Visuali—agenti AI multimodali in grado di comprendere e rispondere a interrogativi visivo-spaziali complessi sul mondo analizzando vasti repository di immagini geospaziali, tra cui vedute stradali (ad esempio, Google Street View), foto basate su luoghi (ad esempio, TripAdvisor, Yelp) e immagini aeree (ad esempio, foto satellitari) combinate con fonti di dati GIS tradizionali. Definiamo la nostra visione, descriviamo approcci di rilevamento e interazione, forniamo tre esempi e elenchiamo le principali sfide e opportunità per il lavoro futuro.
English
Interactive digital maps have revolutionized how people travel and learn about the world; however, they rely on pre-existing structured data in GIS databases (e.g., road networks, POI indices), limiting their ability to address geo-visual questions related to what the world looks like. We introduce our vision for Geo-Visual Agents--multimodal AI agents capable of understanding and responding to nuanced visual-spatial inquiries about the world by analyzing large-scale repositories of geospatial images, including streetscapes (e.g., Google Street View), place-based photos (e.g., TripAdvisor, Yelp), and aerial imagery (e.g., satellite photos) combined with traditional GIS data sources. We define our vision, describe sensing and interaction approaches, provide three exemplars, and enumerate key challenges and opportunities for future work.
PDF72August 22, 2025