TeamHOI: Apprendimento di una Politica Unificata per Interazioni Cooperative Uomo-Oggetto con Qualsiasi Dimensione del Team
TeamHOI: Learning a Unified Policy for Cooperative Human-Object Interactions with Any Team Size
March 9, 2026
Autori: Stefan Lionar, Gim Hee Lee
cs.AI
Abstract
Il controllo di umanoidi basato sulla fisica ha compiuto progressi notevoli nel consentire comportamenti realistici e ad alte prestazioni per agenti singoli, ma estendere queste capacità alle interazioni cooperative uomo-oggetto (HOI) rimane una sfida. Presentiamo TeamHOI, un framework che consente a una singola politica decentralizzata di gestire HOI cooperative con un numero qualsiasi di agenti cooperanti. Ogni agente opera utilizzando osservazioni locali, prestando attenzione agli altri membri del team attraverso una rete politica basata su Transformer con token dei compagni, permettendo un coordinamento scalabile per dimensioni variabili del team. Per garantire realismo del movimento affrontando la scarsità di dati HOI cooperativi, introduciamo inoltre una strategia mascherata di Priorità Motoria Avversaria (AMP) che utilizza movimenti di riferimento di umani singoli, mascherando le parti del corpo che interagiscono con l'oggetto durante l'addestramento. Le regioni mascherate vengono poi guidate da ricompense di compito per produrre comportamenti cooperativi diversificati e fisicamente plausibili. Valutiamo TeamHOI su un compito impegnativo di trasporto cooperativo che coinvolge da due a otto agenti umanoidi e geometrie oggetto variate. Infine, per promuovere un trasporto stabile, progettiamo una ricompensa di formazione indipendente dalla dimensione del team e dalla forma. TeamHOI raggiunge alti tassi di successo e dimostra una cooperazione coerente in configurazioni diverse con una singola politica.
English
Physics-based humanoid control has achieved remarkable progress in enabling realistic and high-performing single-agent behaviors, yet extending these capabilities to cooperative human-object interaction (HOI) remains challenging. We present TeamHOI, a framework that enables a single decentralized policy to handle cooperative HOIs across any number of cooperating agents. Each agent operates using local observations while attending to other teammates through a Transformer-based policy network with teammate tokens, allowing scalable coordination across variable team sizes. To enforce motion realism while addressing the scarcity of cooperative HOI data, we further introduce a masked Adversarial Motion Prior (AMP) strategy that uses single-human reference motions while masking object-interacting body parts during training. The masked regions are then guided through task rewards to produce diverse and physically plausible cooperative behaviors. We evaluate TeamHOI on a challenging cooperative carrying task involving two to eight humanoid agents and varied object geometries. Finally, to promote stable carrying, we design a team-size- and shape-agnostic formation reward. TeamHOI achieves high success rates and demonstrates coherent cooperation across diverse configurations with a single policy.