Menschen entwickeln beim Erlernen neuer manueller Fähigkeiten keine aufwendigen Berechnungen, um die erforderlichen Bewegungen ihrer Gliedmaßen zu ermitteln. Stattdessen stellen sie sich vor, wie ihre Hände sich bewegen müssen, um eine bestimmte Aufgabe effektiv auszuführen.
Forscher vom Imperial College London und dem Dyson Robot Learning Lab haben eine innovative Methode entwickelt, um Roboter effizienter und menschenähnlicher lernen zu lassen. Ihr Ansatz, „Render and Diffuse“ (R&D) genannt, zielt darauf ab, die Kluft zwischen hochdimensionalen Beobachtungen und niedrigdimensionalen robotischen Aktionen zu überbrücken, insbesondere wenn Datenmangel herrscht.
Ein wesentlicher Bestandteil dieser Methode ist die Nutzung virtueller Darstellungen eines 3D-Robotermodells. Indem niedrigdimensionale Aktionen im Beobachtungsraum visualisiert werden, konnte der Lernprozess deutlich vereinfacht werden. Ein Beispiel dafür ist das Herunterklappen eines Toilettendeckels – eine Aufgabe, die laut humorvoller Aussage von Frauen viele Männer nicht bewältigen können.
Diese Render and Diffuse-Methode ermöglicht es Robotern, etwas Ähnliches zu tun: Sie können ihre Aktionen innerhalb der virtuellen Darstellung ‚visualisieren‘, indem sie digitale Abbilder ihres eigenen Körpers verwenden.
Durch eine reduzierte Anzahl von Übungen lässt sich dasselbe Ergebnis erzielen, nämlich eine bessere Fähigkeit, das Gelernte in unterschiedlichen Situationen anzuwenden.
Literatur
Vosylius, Vitalis, Seo, Younggyo, Uruç, Jafar & James, Stephen (2024). Render and Diffuse: Aligning Image and Action Spaces for Diffusion-based Behaviour Cloning.