AimBot: Een Eenvoudige Visuele Hulp om het Ruimtelijk Bewustzijn van Visuomotorische Beleidsregels te Verbeteren
AimBot: A Simple Auxiliary Visual Cue to Enhance Spatial Awareness of Visuomotor Policies
August 11, 2025
Auteurs: Yinpei Dai, Jayjun Lee, Yichi Zhang, Ziqiao Ma, Jed Yang, Amir Zadeh, Chuan Li, Nima Fazeli, Joyce Chai
cs.AI
Samenvatting
In dit artikel introduceren we AimBot, een lichtgewicht visuele augmentatietechniek die expliciete ruimtelijke aanwijzingen biedt om het leren van visuomotorische beleidsregels in robotmanipulatie te verbeteren. AimBot plaatst schietlijnen en vizierreticules over multi-view RGB-beelden, waardoor aanvullende visuele begeleiding wordt geboden die de toestand van de eindeffector codeert. De overlays worden berekend op basis van diepteafbeeldingen, camera-extrinsieken en de huidige pose van de eindeffector, waardoor de ruimtelijke relaties tussen de grijper en objecten in de scène expliciet worden overgebracht. AimBot veroorzaakt minimale rekenkundige overhead (minder dan 1 ms) en vereist geen wijzigingen aan modelarchitecturen, aangezien het simpelweg de originele RGB-beelden vervangt door geaugmenteerde versies. Ondanks zijn eenvoud tonen onze resultaten aan dat AimBot consistent de prestaties van verschillende visuomotorische beleidsregels verbetert, zowel in simulatie als in real-world omgevingen, wat de voordelen van ruimtelijk verankerde visuele feedback benadrukt.
English
In this paper, we propose AimBot, a lightweight visual augmentation technique
that provides explicit spatial cues to improve visuomotor policy learning in
robotic manipulation. AimBot overlays shooting lines and scope reticles onto
multi-view RGB images, offering auxiliary visual guidance that encodes the
end-effector's state. The overlays are computed from depth images, camera
extrinsics, and the current end-effector pose, explicitly conveying spatial
relationships between the gripper and objects in the scene. AimBot incurs
minimal computational overhead (less than 1 ms) and requires no changes to
model architectures, as it simply replaces original RGB images with augmented
counterparts. Despite its simplicity, our results show that AimBot consistently
improves the performance of various visuomotor policies in both simulation and
real-world settings, highlighting the benefits of spatially grounded visual
feedback.