Erlernen visuell gesteuerter reaktiver Fußballfähigkeiten für humanoide Roboter
Learning Vision-Driven Reactive Soccer Skills for Humanoid Robots
November 6, 2025
papers.authors: Yushi Wang, Changsheng Luo, Penghui Chen, Jianran Liu, Weijian Sun, Tong Guo, Kechang Yang, Biao Hu, Yangang Zhang, Mingguo Zhao
cs.AI
papers.abstract
Humanoides Fußballspielen stellt eine repräsentative Herausforderung für verkörperte Intelligenz dar, da Roboter in einer eng gekoppelten Wahrnehmungs-Handlungs-Schleife agieren müssen. Allerdings basieren bestehende Systeme typischerweise auf entkoppelten Modulen, was zu verzögerten Reaktionen und inkohärentem Verhalten in dynamischen Umgebungen führt, während reale Wahrnehmungsbeschränkungen diese Probleme weiter verschärfen. In dieser Arbeit präsentieren wir einen vereinheitlichten, reinforcement-learning-basierten Controller, der humanoiden Robotern ermöglicht, reaktive Fußballfähigkeiten durch direkte Integration von visueller Wahrnehmung und Bewegungssteuerung zu erlernen. Unser Ansatz erweitert Adversarial Motion Priors auf Wahrnehmungskontexte in realen dynamischen Umgebungen und überbrückt damit Bewegungsimitation und visuell fundierte dynamische Steuerung. Wir führen eine Encoder-Decoder-Architektur ein, kombiniert mit einem virtuellen Wahrnehmungssystem, das reale visuelle Eigenschaften modelliert. Dies ermöglicht der Policy, privilegierte Zustände aus unvollständigen Beobachtungen abzuleiten und eine aktive Koordination zwischen Wahrnehmung und Handlung herzustellen. Der resultierende Controller demonstriert starke Reaktivität und führt konsistent kohärente und robuste Fußballverhaltensweisen in verschiedenen Szenarien aus, einschließlich realer RoboCup-Wettkämpfe.
English
Humanoid soccer poses a representative challenge for embodied intelligence,
requiring robots to operate within a tightly coupled perception-action loop.
However, existing systems typically rely on decoupled modules, resulting in
delayed responses and incoherent behaviors in dynamic environments, while
real-world perceptual limitations further exacerbate these issues. In this
work, we present a unified reinforcement learning-based controller that enables
humanoid robots to acquire reactive soccer skills through the direct
integration of visual perception and motion control. Our approach extends
Adversarial Motion Priors to perceptual settings in real-world dynamic
environments, bridging motion imitation and visually grounded dynamic control.
We introduce an encoder-decoder architecture combined with a virtual perception
system that models real-world visual characteristics, allowing the policy to
recover privileged states from imperfect observations and establish active
coordination between perception and action. The resulting controller
demonstrates strong reactivity, consistently executing coherent and robust
soccer behaviors across various scenarios, including real RoboCup matches.