Mimik der Robotergesichter

Forscher der Universität Osaka in Japan haben jetzt den Grundstein dafür gelegt, dass Robotergesichtern eine Mimik zuteil werden kann, die von der des Menschen kaum noch zu unterscheiden ist. Das wäre vor allem für Service- und Pflegeroboter wichtig, bei denen es darauf ankommt, dass sie mit ihren Klienten ein Vertrauensverhältnis aufbauen können. Die Experten haben am Gesicht einer Person 125 Tracking-Marker platziert, um selbst die sparsamsten Bewegungen der Muskeln bei 44 verschiedenen Gesichtsausdrücken zu dokumentieren wie das Blinzeln oder das Anheben der Mundwinkel.

Einfache Bewegungen komplex

Jeder Gesichtsausdruck resultiert aus einer Vielzahl lokaler Verformungen, da die Muskeln die Haut dehnen oder straffen. Selbst die einfachsten Bewegungen können überraschend komplex sein. Dass menschliche Gesicht enthält eine Ansammlung verschiedener Gewebetypen unter der Haut, von Muskelfasern bis hin zu Fett, die alle zusammenarbeiten, um das aktuelle Befinden zu vermitteln. Dazu gehört alles von einem breiten Lächeln bis hin zu einem Anheben der Augenbrauen.

Diese Vielfalt macht die Mimik so subtil und nuanciert, was es wiederum schwierig gestaltet, sie künstlich zu reproduzieren, so die Forscher. Bisher beruhte dies auf viel einfacheren Messungen der gesamten Gesichtsform und der Bewegung ausgewählter Punkte auf der Haut vor und nach Bewegungen. „Unsere Gesichter sind uns so vertraut, dass wir die feinen Details nicht wahrnehmen. Aber aus technischer Sicht sind sie erstaunliche Informationsanzeigegeräte. Anhand der Gesichtsausdrücke von Menschen können wir erkennen, ob sich hinter einem Lächeln Traurigkeit verbirgt oder ob jemand müde oder nervös ist“, so Forscher Hisashi Ishihara.

Auch für medizinische Diagnostik

Die gesammelten Infos helfen den Forschern, künstliche Gesichter menschenähnlicher zu machen – ob es sich um Bildschirmdarstellungen handelt oder dreidimensionale Robotergesichter. „Unsere Deformationsanalyse erklärt, wie aus einfachen Gesichtsbewegungen anspruchsvolle Ausdrücke entstehen,“ so Mechanik-Professor Akihiro Nakatani. Sie könnte auch die Gesichtserkennung oder medizinische Diagnosen verbessern, indem Anomalien der Gesichtsbewegungen analysiert werden, die auf bestimmte Krankheiten hindeuten. Bisher ist dazu die Erfahrung eines Arztes nötig.

Quelle: www.pressetext.com
(pte002/10.11.2023/06:05)

Vergleich Roboter – Mensch

Der unaufhörliche Fortschritt der Robotertechnologie und die Rationalisierung der menschlichen Arbeitskraft wecken in der Gesellschaft hohe Erwartungen, aber auch Ressentiments und sogar Angst. In einer Arbeit präsentieren Riener et al. (2023) einen quantitativen, normierten Leistungsvergleich, um die drängende Frage zu beleuchten: „Wie nah ist der aktuelle Stand der humanoiden Robotik daran, den Menschen in seinen typischen Funktionen (z. B. Fortbewegung, Manipulation) und den zugrundeliegenden Strukturen (z. B. Aktuatoren/Muskeln) in menschenzentrierten Bereichen zu übertreffen?“ Die meisten hochmodernen Roboterstrukturen, die für die visuelle, taktile oder vestibuläre Wahrnehmung erforderlich sind, übertreffen die menschlichen Strukturen, allerdings auf Kosten einer etwas höheren Masse und eines etwas größeren Volumens. Elektromagnetische und fluidische Antriebe übertreffen menschliche Muskeln in Bezug auf Geschwindigkeit, Ausdauer, Kraftdichte und Leistungsdichte, wobei Komponenten zur Energiespeicherung und -umwandlung nicht berücksichtigt sind. Künstliche Gelenke und Verbindungen können mit dem menschlichen Skelett konkurrieren. Dagegen zeigt der Vergleich der Fortbewegungsfunktionen, dass Roboter in Bezug auf Energieeffizienz, Betriebszeit und Transportkosten hinterherhinken. Roboter sind in der Lage, Hindernisse zu überwinden, Objekte zu manipulieren, zu schwimmen, Fußball zu spielen oder Fahrzeuge zu steuern. Trotz der beeindruckenden Fortschritte, die humanoide Roboter in den letzten zwei Jahrzehnten gemacht haben, erreichen die aktuellen Roboter noch nicht die Geschicklichkeit und Vielseitigkeit, um komplexere Manipulations- und Fortbewegungsaufgaben (z. B. in engen Räumen) zu bewältigen. Die Autoren kommen daher zu dem Schluss, dass die moderne humanoide Robotik weit davon entfernt ist, die Geschicklichkeit und Vielseitigkeit des Menschen zu erreichen. Trotz der überragenden technischen Strukturen sind die Roboterfunktionen denen des Menschen unterlegen, selbst bei angebundenen Robotern, die schwere Hilfskomponenten außerhalb des Fahrzeugs unterbringen können. Die anhaltenden Fortschritte in der Robotik lassen erwarten, dass sich der Abstand verringert.

Literatur

Riener, Robert, Rabezzana, Luca & Zimmermann, Yves (2023). Do robots outperform humans in human-centered domains? Frontiers in Robotics and AI, 10, doi:10.3389/frobt.2023.1223946.

Was ist ein Cobot?

Ein Cobot ist ein kollaborativer Roboter, der speziell dafür entwickelt wurde, sicher und effektiv mit Menschen zusammenzuarbeiten.
Im Gegensatz zu traditionellen Industrierobotern, die typischerweise in abgesperrten Bereichen arbeiten und von Menschen ferngehalten werden müssen, können Cobots sicher in der Nähe von Menschen arbeiten, ohne dass dabei ein Risiko für Verletzungen besteht.

Cobots sind mit fortschrittlichen Sensoren und Technologien ausgestattet, die es ihnen ermöglichen, ihre Umgebung und die Bewegungen von Menschen in der Nähe zu erkennen. Sie können auch programmiert werden, um bestimmte Aufgaben auszuführen, wie z.B. die Montage von Teilen, die Verpackung von Produkten oder die Durchführung von Inspektionsaufgaben. Da Cobots in der Lage sind, gemeinsam mit Menschen zu arbeiten, können sie die Effizienz und Produktivität in vielen industriellen Anwendungen steigern und gleichzeitig das Risiko von Verletzungen oder Unfällen verringern (Stangl, 2023).


Dazu einige Horrormeldungen aus den Medien:

Ein Industrie-Roboter in Südkorea hat einen Techniker zu Tode gequetscht. Der Roboter war dazu entworfen worden, Kisten mit Paprikaschoten zu greifen und sie auf eine Palette zu legen. Als der etwa 40 Jahre alte Mitarbeiter einer Robotik-Firma gerade dabei war, die Sensoren des Roboters zu kontrollieren, schnappte dieser sich den Techniker, stieß ihn mit dem Oberkörper gegen das Fließband und zerdrückte dabei Brust und Gesicht. Der Mann wurde ins Krankenhaus gebracht, erlag dort aber seinen schweren Verletzungen.
Im Volkswagenwerk Baunatal war ein 22-Jährige bei einer Produktionslinie der Elektromotorenfertigung mit dem Einrichten eines Roboters beschäftigt, als dieser ihn erfasste und gegen eine Metallplatte drückte. Der Mitarbeiter erlitt schwere Quetschungen im Brustbereich, wurde zwar wiederbelebt, starb aber später im Krankenhaus.

Literatur

Stangl, B. (2023, 23. Februar). Cobot . roboter lexikon.
https:// roboter.stangl.wien/cobot/

Weiche Sensoren in der Robotik

Weiche Sensoren, die zwischen Scher- und Normalkraft unterscheiden können, könnten Maschinen die Feinsteuerung ermöglichen, die für eine sichere und effektive physische Interaktion mit Menschen erforderlich ist. Die Entwicklung von solchen Sensoren in Verbindung mit künstlicher Intelligenz steigert die Fähigkeiten von Robotern und macht sie lebendiger, was neue Möglichkeiten für die Zusammenarbeit zwischen Menschen und Robotern eröffnet. Dies ist wichtig, damit die Roboter intelligenter entscheiden können, welche Sensoren sie verwenden und wie sie auf verschiedene Situationen reagieren sollen. Da die Sensoren immer hautähnlicher werden und auch Temperatur und sogar Schäden erkennen können, müssen Roboter intelligenter entscheiden, auf welche Sensoren sie achten und wie sie reagieren sollen. Die Entwicklung von Sensoren und künstlicher Intelligenz muss daher Hand in Hand gehen.

Sarwar et al. (2023) haben einen kapazitiver Sensor entwickelt, der aus gemustertem Elastomer besteht und sowohl feste als auch gleitende Säulen enthält, die es dem Sensor ermöglichen, sich zu verformen und zu wölben, ähnlich wie die Haut selbst. Der Sensor unterscheidet zwischen einer gleichzeitig wirkenden Normalkraft und einer Scherkraft, indem er die Signale von vier verformbaren Kondensatoren summiert und differenziert. Darüber hinaus kann die Nähe der Finger in einem Bereich von bis zu 15 mm erkannt werden. Die Funktionsweise wird von den Forschern an einem einfachen Greifer demonstriert, der einen Becher hält, wobei die Kombination von Merkmalen und die einfache Herstellungsmethode diesen Sensor zu einem Kandidaten für die Implementierung als Sensorhaut für humanoide Roboteranwendungen machen.

Neue Sensoren können auf der Oberfläche einer Prothese oder eines Roboterglieds angebracht werden und ermöglicht es diesen, Berührungen wahrzunehmen und Aufgaben auszuführen, die bisher für Maschinen äußerst schwierig waren, wie etwa das Aufheben einer weichen Frucht. Darüber hinaus haben neue Sensoren eine weiche Textur, die sie wie menschliche Haut aussehen lässt, was eine sicherere und natürlichere Interaktion mit Menschen ermöglicht. Dadurch kann ein Prothesen- oder Roboterarm auf taktile Reize mit Geschicklichkeit und Präzision reagieren. also etwa zerbrechliche Gegenstände wie ein Ei oder ein Glas Wasser halten, ohne sie zu zerdrücken oder fallen zu lassen. Der Kern solcher Sensoren besteht aus Silikonkautschuk, einem Material, das in der Filmindustrie häufig zur Erzeugung spezieller Hauteffekte verwendet wird. Das einzigartige Design dieser Sensoren verleiht ihnen die Fähigkeit, sich zu biegen und zu falten, ähnlich wie die menschliche Haut. Solche Sensoren nutzen schwache elektrische Felder zur Erkennung von Objekten, auch aus größerer Entfernung, und ermöglicht es Robotern, sicher mit Menschen zu interagieren.

Literatur

Sarwar, Mirza S., Ishizaki, Ryusuke, Morton, Kieran, Preston, Claire, Nguyen, Tan, Fan, Xu, Dupont, Bertille, Hogarth, Leanna, Yoshiike, Takahide, Qiu, Ruixin, Wu, Yiting, Mirabbasi, Shahriar, Madden & John D. W. (2023). Touch, press and stroke: a soft capacitive sensor skin. Scientific Reports, 13, doi:10.1038/s41598-023-43714-6.
https://gagadget.com/de/science/342373-durchbruch-in-der-robotik-wissenschaftler-haben-zusammen-mit-honda-einen-sensor-entwickelt-der-der-menschlichen-h/ (23-10-29)

Der Roboter mit dem Elefantenrüssel

Von Elefantenrüsseln inspiriert haben Schweizer Forscher der École Polytechnique Fédérale de Lausanne einen neuen Roboter entwickelt, der künftig im Gesundheitswesen zum Einsatz kommen soll. Ziel ist es, Roboter näher an die Menschen heranzuführen, da dieser weiche Roboterarm eine Zukunft verkörpert, in der Maschinen die Bedürfnisse der Menschen besser unterstützen, ergänzen und verstehen als je zuvor. Der Kern der Entwicklung liegt in der neuartigen Architektur des Roboterarms, und zwar hat man eine spiralartige Struktur, einen sogenannten Helikoiden, modifiziert, indem man Teile davon abgeschnitten hat, was es ermöglicht, genau zu steuern, wie flexibel oder steif die Spirale in verschiedenen Richtungen wird.

Quelle

https://www.blick.ch/wirtschaft/fuer-einsatz-im-gesundheitswesen-schweizer-forscher-entwickeln-elefantenruessel-roboter-id19080904.html (23-10-27)

Pepper als Entertainer

Pepper ist ein humanoider Roboter, der von den französischen Unternehmen Aldebaran Robotics und SoftBank Robotics entwickelt wurde,  ist etwa 1,20 Meter groß und 28 Kilogramm schwer und hat einen freundlichen und einladenden Gesichtsausdruck. Pepper ist darauf programmiert, Menschen und deren Mimik und Gestik zu analysieren und auf diese Emotionszustände entsprechend zu reagieren, d. h., er kann auf Fragen antworten, Gespräche führen und sogar Emotionen ausdrücken. Pepper wird in einer Reihe von Branchen eingesetzt, darunter Einzelhandel, Gesundheitswesen und Bildung, also etwa in Geschäften als Kundenservice-Bot, in Krankenhäusern als Begleiter für Patienten und in Schulen als Lernhelfer.

Der 2014 entwickelte erste humanoide Roboter Pepper ist ein Robotik-System, das vor allem Pflegekräfte bei ihrer Arbeit unterstützen soll. Er spricht mit seinen großen Kulleraugen das Kindchenschema an. Pepper wird vor allem eingesetzt, um Bewohner oder Patienten zu unterhalten, ihnen Gesellschaft zu leisten oder einfache Aufgaben zu übernehmen, wie Aufklärung oder das Erinnern an die Medikamenteneinnahme.  Pepper erkennt mit seinen Fähigkeiten Emotionen und reagiert durch Anpassung seiner Gestik, Mimik und Sprache.

Auch wenn Pepper schon eher an den goldenen C-3PO erinnert, geht es auch bei seinem Einsatz nicht darum, dass KI eigenständig denkt und handelt, sondern um die Frage, ob und wie Robotik die Pflege unterstützen kann. Mit dem Tablet auf der Vorderseite des Roboters kann das Gegenüber mit Pepper interagieren.

Küchenroboter soll Koch ersetzen

Der Roboter von Goodbytz soll nach Meinung seiner Erfinder den Kantinenkoch ersetzen bzw. die Arbeit in Großküchen erleichtern. In einem großen Edelstahlkasten hat Goodbytz die gängigen Küchengeräte verbaut: Herdplatten, Kühlschränke und Spülmaschinen. Je nachdem, welche Komponenten eingesetzt werden, ist der Küchenassistent so groß wie ein kleines Zimmer: zwischen sechs und 15 Quadratmeter. Küchenpersonal wird dann nur noch gebraucht, um den Roboter zu bedienen: Menschen füllen die Kühlschränke mit den geschnittenen Zutaten, die sich die Roboterarme greifen, abwiegen und zubereiten. Die Roboter stellen Pfannen auf den Herd, befüllen Schüsseln, wenn das Gericht fertig ist. Und das kann vieles sein: Salat, Porridge, Knödel, Eintöpfe oder Kaiserschmarrn könne der Küchenassistent herstellen. Eingesetzt werden soll der Küchenroboter vor allem in Großküchen, beispielsweise in Flughäfen oder Betriebskantinen, also überall dort, wo viele Menschen zu Stoßzeiten essen.

Quelle

https://www.handelsblatt.com/unternehmen/handel-konsumgueter/goodbytz-dieser-roboter-koennte-den-kantinenkoch-ersetzen/29456546.html (23-10-25)

SanTo – ein Gebets-Roboter

Gabriele Trovato, außerordentlicher Professor am Innovative Global Program des Shibaura Institute of Technology in Tokio, Japan, hat nach einer Pressemeldung den ersten Roboter entwickelt hat, der Gläubigen bei der Suche nach einem Bibeltext oder einem Gebet helfen soll. SanTO steht als Akronym für SANctified Theomorphic Operator und ist ein Roboter, der wie die Statue eines Heiligen in einer Nische aussieht.

Seine Rolle ist die eines Gebetsbegleiters, der aus der Bibel vorlesen, Gebete vorschlagen, Passagen zu verschiedenen Themen zitieren und die Geschichte der Heiligen des Jahres erzählen kann. Sein Design ist eine Mischung aus Technik und sakraler Kunst, die den goldenen Schnitt einbezieht und auf einem neoklassizistischen Stil basiert.

Es handelt sich um den ersten katholischen Roboter.

Die Steuerung ist so konzipiert, dass sie auch für ältere Menschen leicht verständlich ist, denn diese müssen nur die Hände des Roboters berühren, um ihn zu aktivieren, den Rest erledigt die Stimme. Um eine Frage zu stellen, gibt es eine bestimmte Zeit, nach der SanTO antwortet, und die Halo-Lichter regeln das Timing des Gesprächs.

Quelle

https://de.catholicnewsagency.com/news/14279/santo-dieser-roboter-hilft-beim-beten (23-10-22)

Kooperation Mensch mit Roboter

Eine Studie der Hochschule Coburg zeigt, dass Menschen eine humanoide Form bei Robotern nicht immer als positiv empfinden. Untersucht wurde, welche Rolle die Vermenschlichung bei kooperativen Handbewegungen zwischen Mensch und Roboter spielt. Menschen neigen dazu, ein menschliches oder menschenähnliches Gegenüber zu imitieren, was auf die Aktivierung von Spiegelneuronen zurückzuführen ist, die beim Lernen durch Imitation eine wichtige Rolle spielen. Dies führt zu Bewegungsablenkungen bei der gemeinsamen Aufgabenbewältigung von Mensch und Roboter, so dass der Mensch aktiv gegen diese Ablenkungen arbeiten muss, was zu zusätzlichen Belastungen führt, wie in der Studie mit einem Roboterarm in menschenähnlicher Schulteraufhängung im Vergleich zur Tischaufhängung gezeigt wurde. Menschenähnlichkeit ist also nicht immer positiv zu bewerten, und der Grad der Menschenähnlichkeit muss im praktischen Einsatz von Robotern stets abgewogen werden, um eine Balance zwischen Intuitivität und Belastungsarmut zu finden.

Wie KI-Modelle sich selbst verbessern

Overney (2023) hat untersucht, wie es einem KI-Modelle gelingt, sich selbst neue Dinge beizubringen, also neue Konzepte zu lernen, wenn sie mit ihren Benutzern interagieren. Dabei hat man einen möglichen Schlüsselmechanismus von Transformern aufgedeckt, der solche künstlichen System befähigt, im laufenden Betrieb zu lernen und ihre Antworten auf der Grundlage von Interaktionen mit ihren Nutzern zu verfeinern. Transformer sind dabei künstliche neuronale Netze mit einer besonderen Architektur, die von grossen Sprachmodellen wie ChatGPT verwendet werden. Während neuronale Netze im Allgemeinen als Black-box betrachtet werden, die bei einer Eingabe eine Ausgabe ausspucken, können Transformer von sich aus lernen, neue Algorithmen in ihre Architektur einzubauen. Man kann einem Sprachmodell wie ChatGPT etwa mehrere kurze Texte geben und jeweils angeben, ob die Texte grundsätzlich eine positive oder negative Grundstimmung haben. Dann legt man dem Modell einen Text vor, den es noch nicht gesehen hat, und es wird anhand der Beispiele, die man dem Modell gegeben hat, ziemlich sicher lernen und beurteilen, ob der neue Text positiv oder negativ ist. Aus dem Zwang heraus, die eigenen Vorhersagen zu verbessern, entwickelt es während des Trainings eine Technik, die es dem Modell ermöglicht, aus den Gesprächen mit seinen Nutzern zu lernen (In-Context-Learning). Der von Overney verwendete Transformer war dabei fast identisch mit der weit verbreiteten Transformer-Architektur, doch anstatt das System mit grossen Textmengen aus dem Internet zu trainieren, hatte man es mit Beispielen eines einfachen Problems trainiert, der linearen Regression. Da dieses Problem und seine Lösung sehr gut bekannt sind, konnte man diese Lösung mit dem vergleichen, was man im Transformer beobachtet hat. So konnte man zeigen, dass der Transformer einen sehr bekannten und leistungsstarken Lernalgorithmus namens „Gradient Descent“ in sich selbst implementiert hat, wobei der Transformer nicht einfach „Gradient Descent“ gelernt und durchgeführt hat, sondern eine verbesserte Version davon.

Literatur

Overney, J. (2023). Wie es KI-Modelle schaffen, sich selbst neue Dinge beizubringen.
WWW: https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2023/07/wie-es-ki-modelle-schaffen-sich-selbst-neue-dinge-beizubringen.html (23-07-24)