ChatPaper.aiChatPaper

TactAlign: Mensch-zu-Roboter-Politiktransfer durch taktile Ausrichtung

TactAlign: Human-to-Robot Policy Transfer via Tactile Alignment

February 14, 2026
papers.authors: Youngsun Wi, Jessica Yin, Elvis Xiang, Akash Sharma, Jitendra Malik, Mustafa Mukadam, Nima Fazeli, Tess Hellebrekers
cs.AI

papers.abstract

Von tragbaren Geräten (z.B. taktilen Handschuhen) erfasste menschliche Demonstrationen bieten eine schnelle und geschickte Überwachung für das Erlernen von Handlungsstrategien und werden durch reichhaltige, natürliche taktile Rückmeldung geleitet. Eine zentrale Herausforderung besteht jedoch darin, wie menschlich erfasste taktile Signale auf Roboter übertragen werden können, trotz der Unterschiede in den Sensormodalitäten und der Embodiment-Form. Bestehende Human-to-Robot (H2R)-Ansätze, die Berührung einbeziehen, gehen oft von identischen taktilen Sensoren aus, erfordern gepaarte Daten und beinhalten eine geringe bis keine Embodiment-Differenz zwischen menschlichem Demonstrator und den Robotern, was die Skalierbarkeit und Allgemeingültigkeit einschränkt. Wir schlagen TactAlign vor, eine Cross-Embodiment-Taktilabgleichsmethode, die menschlich erfasste taktile Signale auf einen Roboter mit anderer Embodiment-Form überträgt. TactAlign transformiert taktile Beobachtungen von Mensch und Roboter mittels eines rectified flow in eine gemeinsame latente Repräsentation, ohne gepaarte Datensätze, manuelle Labels oder privilegierte Informationen. Unsere Methode ermöglicht einen kostengünstigen latenten Transport, der durch aus Hand-Objekt-Interaktionen abgeleitete Pseudopaare geleitet wird. Wir demonstrieren, dass TactAlign den H2R-Strategietransfer über mehrere kontaktintensive Aufgaben hinweg verbessert (Schwenken, Einfügen, Deckel schließen), auf unbekannte Objekte und Aufgaben mit menschlichen Daten verallgemeinert (weniger als 5 Minuten) und einen Zero-Shot-H2R-Transfer bei einer hochgradig geschickten Aufgabe (Schrauben einer Glühbirne) ermöglicht.
English
Human demonstrations collected by wearable devices (e.g., tactile gloves) provide fast and dexterous supervision for policy learning, and are guided by rich, natural tactile feedback. However, a key challenge is how to transfer human-collected tactile signals to robots despite the differences in sensing modalities and embodiment. Existing human-to-robot (H2R) approaches that incorporate touch often assume identical tactile sensors, require paired data, and involve little to no embodiment gap between human demonstrator and the robots, limiting scalability and generality. We propose TactAlign, a cross-embodiment tactile alignment method that transfers human-collected tactile signals to a robot with different embodiment. TactAlign transforms human and robot tactile observations into a shared latent representation using a rectified flow, without paired datasets, manual labels, or privileged information. Our method enables low-cost latent transport guided by hand-object interaction-derived pseudo-pairs. We demonstrate that TactAlign improves H2R policy transfer across multiple contact-rich tasks (pivoting, insertion, lid closing), generalizes to unseen objects and tasks with human data (less than 5 minutes), and enables zero-shot H2R transfer on a highly dexterous tasks (light bulb screwing).
PDF102February 21, 2026