ChatPaper.aiChatPaper

Game4Loc: Ein Benchmark zur geografischen Lokalisierung von UAVs anhand von Spieldaten

Game4Loc: A UAV Geo-Localization Benchmark from Game Data

September 25, 2024
Autoren: Yuxiang Ji, Boyong He, Zhuoyue Tan, Liaoni Wu
cs.AI

Zusammenfassung

Die auf Vision basierende geolokalisierungstechnologie für UAVs, die als sekundäre Quelle von GPS-Informationen zusätzlich zu den globalen Navigationssatellitensystemen (GNSS) dient, kann immer noch unabhängig in einer GPS-freien Umgebung betrieben werden. Aktuelle auf Deep Learning basierende Methoden betrachten dies als die Aufgabe des Bildabgleichs und der Rückgewinnung. Durch die Rückgewinnung von Drohnensichtbildern in einer geotagierten Satellitenbild-Datenbank können ungefähre Lokalisierungsinformationen erhalten werden. Aufgrund hoher Kosten und Datenschutzbedenken ist es jedoch in der Regel schwierig, große Mengen von Drohnensichtbildern aus einem kontinuierlichen Gebiet zu erhalten. Bestehende Drohnensicht-Datensätze bestehen größtenteils aus Luftaufnahmen im kleinen Maßstab mit der starken Annahme, dass es ein perfekt eins-zu-eins ausgerichtetes Referenzbild für jede Abfrage gibt, was eine signifikante Lücke zum praktischen Lokalisierungsszenario hinterlässt. In dieser Arbeit erstellen wir einen großflächigen zusammenhängenden UAV-Geolokalisierungsdatensatz namens GTA-UAV, der mehrere Flughöhen, Ausrichtungen, Szenen und Ziele mithilfe moderner Computerspiele zeigt. Basierend auf diesem Datensatz führen wir eine praxisnähere UAV-Geolokalisierungsaufgabe ein, die teilweise Übereinstimmungen von kreuzweise gepaarten Daten umfasst, und erweitern die Bildrückgewinnung auf die tatsächliche Lokalisierung in Bezug auf die Entfernung (Meter). Für die Erstellung von Drohnen- und Satellitenbild-Paaren verwenden wir einen gewichtsbasierten kontrastiven Lernansatz, der ein effektives Lernen ermöglicht, während zusätzliche Nachbearbeitungsschritte vermieden werden. Experimente zeigen die Wirksamkeit unserer Daten und Trainingsmethode für die UAV-Geolokalisierung sowie die Verallgemeinerungsfähigkeiten auf reale Szenarien.
English
The vision-based geo-localization technology for UAV, serving as a secondary source of GPS information in addition to the global navigation satellite systems (GNSS), can still operate independently in the GPS-denied environment. Recent deep learning based methods attribute this as the task of image matching and retrieval. By retrieving drone-view images in geo-tagged satellite image database, approximate localization information can be obtained. However, due to high costs and privacy concerns, it is usually difficult to obtain large quantities of drone-view images from a continuous area. Existing drone-view datasets are mostly composed of small-scale aerial photography with a strong assumption that there exists a perfect one-to-one aligned reference image for any query, leaving a significant gap from the practical localization scenario. In this work, we construct a large-range contiguous area UAV geo-localization dataset named GTA-UAV, featuring multiple flight altitudes, attitudes, scenes, and targets using modern computer games. Based on this dataset, we introduce a more practical UAV geo-localization task including partial matches of cross-view paired data, and expand the image-level retrieval to the actual localization in terms of distance (meters). For the construction of drone-view and satellite-view pairs, we adopt a weight-based contrastive learning approach, which allows for effective learning while avoiding additional post-processing matching steps. Experiments demonstrate the effectiveness of our data and training method for UAV geo-localization, as well as the generalization capabilities to real-world scenarios.

Summary

AI-Generated Summary

PDF82November 16, 2024