ChatPaper.aiChatPaper

TactAlign : Transfert de Politique de l'Humain au Robot par Alignement Tactile

TactAlign: Human-to-Robot Policy Transfer via Tactile Alignment

February 14, 2026
papers.authors: Youngsun Wi, Jessica Yin, Elvis Xiang, Akash Sharma, Jitendra Malik, Mustafa Mukadam, Nima Fazeli, Tess Hellebrekers
cs.AI

papers.abstract

Les démonstrations humaines collectées par des dispositifs portables (par exemple, des gants tactiles) fournissent une supervision rapide et habile pour l'apprentissage de politiques, guidées par un retour tactile riche et naturel. Cependant, un défi majeur consiste à transférer les signaux tactiles collectés par l'humain vers les robots malgré les différences de modalités sensorielles et d'incarnation. Les approches existantes de transfert humain-robot (H2R) intégrant le toucher supposent souvent des capteurs tactiles identiques, nécessitent des données appariées et impliquent peu ou pas d'écart d'incarnation entre le démonstrateur humain et les robots, limitant ainsi l'évolutivité et la généralité. Nous proposons TactAlign, une méthode d'alignement tactile trans-embodiment qui transfère les signaux tactiles collectés par l'humain vers un robot ayant une incarnation différente. TactAlign transforme les observations tactiles humaines et robotiques en une représentation latente partagée à l'aide d'un flux rectifié, sans jeux de données appariés, étiquettes manuelles ou informations privilégiées. Notre méthode permet un transport latent à faible coût guidé par des pseudo-paires dérivées de l'interaction main-objet. Nous démontrons que TactAlign améliore le transfert de politiques H2R dans plusieurs tâches riches en contacts (pivotement, insertion, fermeture de couvercle), généralise à des objets et tâches non vus avec des données humaines (moins de 5 minutes), et permet un transfert H2R zero-shot sur une tâche hautement habile (vissage d'ampoule).
English
Human demonstrations collected by wearable devices (e.g., tactile gloves) provide fast and dexterous supervision for policy learning, and are guided by rich, natural tactile feedback. However, a key challenge is how to transfer human-collected tactile signals to robots despite the differences in sensing modalities and embodiment. Existing human-to-robot (H2R) approaches that incorporate touch often assume identical tactile sensors, require paired data, and involve little to no embodiment gap between human demonstrator and the robots, limiting scalability and generality. We propose TactAlign, a cross-embodiment tactile alignment method that transfers human-collected tactile signals to a robot with different embodiment. TactAlign transforms human and robot tactile observations into a shared latent representation using a rectified flow, without paired datasets, manual labels, or privileged information. Our method enables low-cost latent transport guided by hand-object interaction-derived pseudo-pairs. We demonstrate that TactAlign improves H2R policy transfer across multiple contact-rich tasks (pivoting, insertion, lid closing), generalizes to unseen objects and tasks with human data (less than 5 minutes), and enables zero-shot H2R transfer on a highly dexterous tasks (light bulb screwing).
PDF102February 21, 2026