TactAlign: Trasferimento di Politiche da Umano a Robot tramite Allineamento Tattile
TactAlign: Human-to-Robot Policy Transfer via Tactile Alignment
February 14, 2026
Autori: Youngsun Wi, Jessica Yin, Elvis Xiang, Akash Sharma, Jitendra Malik, Mustafa Mukadam, Nima Fazeli, Tess Hellebrekers
cs.AI
Abstract
Le dimostrazioni umane raccolte da dispositivi indossabili (ad esempio, guanti tattili) forniscono una supervisione rapida e abile per l'apprendimento di policy, guidate da un feedback tattile ricco e naturale. Tuttavia, una sfida fondamentale è come trasferire i segnali tattili raccolti dall'uomo ai robot nonostante le differenze nelle modalità di sensing e nell'embodiment. Gli approcci esistenti da uomo a robot (H2R) che incorporano il tatto spesso presuppongono sensori tattili identici, richiedono dati accoppiati e implicano un divario di embodiment minimo o nullo tra il dimostratore umano e i robot, limitando scalabilità e generalità. Proponiamo TactAlign, un metodo di allineamento tattile cross-embodiment che trasferisce i segnali tattili raccolti dall'uomo a un robot con embodiment differente. TactAlign trasforma le osservazioni tattili umane e robotiche in una rappresentazione latente condivisa utilizzando un flusso rettificato, senza dataset accoppiati, etichette manuali o informazioni privilegiate. Il nostro metodo consente un trasporto latente a basso costo guidato da pseudo-coppie derivate dall'interazione mano-oggetto. Dimostriamo che TactAlign migliora il trasferimento di policy H2R in numerosi task ad alto contatto (pivotaggio, inserimento, chiusura coperchio), generalizza a oggetti e task non visti con dati umani (meno di 5 minuti) e abilita un trasferimento H2R zero-shot su un task altamente abile (avvitamento lampadina).
English
Human demonstrations collected by wearable devices (e.g., tactile gloves) provide fast and dexterous supervision for policy learning, and are guided by rich, natural tactile feedback. However, a key challenge is how to transfer human-collected tactile signals to robots despite the differences in sensing modalities and embodiment. Existing human-to-robot (H2R) approaches that incorporate touch often assume identical tactile sensors, require paired data, and involve little to no embodiment gap between human demonstrator and the robots, limiting scalability and generality. We propose TactAlign, a cross-embodiment tactile alignment method that transfers human-collected tactile signals to a robot with different embodiment. TactAlign transforms human and robot tactile observations into a shared latent representation using a rectified flow, without paired datasets, manual labels, or privileged information. Our method enables low-cost latent transport guided by hand-object interaction-derived pseudo-pairs. We demonstrate that TactAlign improves H2R policy transfer across multiple contact-rich tasks (pivoting, insertion, lid closing), generalizes to unseen objects and tasks with human data (less than 5 minutes), and enables zero-shot H2R transfer on a highly dexterous tasks (light bulb screwing).