Roboter-Verfassung

Bevor Roboter in unser tägliches Leben integriert werden können, müssen sie verantwortungsbewusst entwickelt werden und ihre Sicherheit in der Praxis durch solide Forschung nachgewiesen werden. Die Roboter-Verfassung ist ein hypothetisches Dokument, das die Rechte und Pflichten von Robotern festlegt und erstmals 1942 von dem Science-Fiction-Autor Isaac Asimov in seiner Kurzgeschichte „Runaround“ vorgestellt wurde. Asimovs Robotergesetze bilden die Grundlage der Roboterverfassung und lauten wie folgt:

  • Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zulassen, dass ein Mensch verletzt wird.
  • Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, diese Befehle stehen im Widerspruch zum Ersten Gesetz.
  • Ein Roboter muss seine eigene Existenz schützen, solange er dadurch nicht in Konflikt mit dem Ersten oder Zweiten Gesetz gerät.

Asimovs Robotergesetze wurden in den folgenden Jahrzehnten von vielen anderen Autoren aufgegriffen und weiterentwickelt. So wurden beispielsweise folgende zusätzliche Gesetze vorgeschlagen

  • Ein Roboter darf sich nicht in die menschlichen Angelegenheiten einmischen.
  • Ein Roboter darf keine Gefühle oder Empfindungen haben.
  • Ein Roboter darf nicht die Fähigkeit zur Selbstreproduktion haben.

Die Verfassung von Robotern ist ein wichtiges Thema in der Robotik und der künstlichen Intelligenz. Sie wird diskutiert, um sicherzustellen, dass Roboter sicher und menschenfreundlich sind.

In der Praxis gibt es noch keine verbindliche Roboterverfassung. Einige Länder haben jedoch Gesetze erlassen, die die Entwicklung und den Einsatz von Robotern regeln. So hat die Europäische Union die Verordnung über künstliche Intelligenz (KI-Verordnung) erlassen. Diese Verordnung enthält Bestimmungen zum Schutz der Privatsphäre, der Sicherheit und der Rechte des Menschen bei der Nutzung von KI-Systemen.

Die Entwicklung einer Roboterverfassung ist ein komplexer Prozess, an dem Wissenschaftler, Ingenieure, Philosophen und Politiker beteiligt sein müssen. Wichtig ist, dass die Roboterverfassung die Interessen aller Beteiligten, insbesondere der Menschen, berücksichtigt.


Das Google-Team Deepmind Robotics arbeitet an KI-gesteuerten Robotern, die eines Tages selbstständig im Haushalt oder im Büro helfen könnten. Mit der KI-Steuerung kommt auch ein gewisses Maß an Autonomie, das potenzielle Gefahren für Menschen mit sich bringen könnte. Diese Roboterassistenten dürfen keine Tätigkeiten ausführen, bei denen Menschen, Tiere, scharfe Gegenstände oder elektrische Geräte beteiligt sind. Ein weiteres Merkmal ist die automatische Stoppfunktion, d. h. wenn die Kraft auf die Gelenke der Roboter einen bestimmten Grenzwert überschreitet, stoppen sie sofort. Zusätzlich ist in jedem Roboter ein manueller Killswitch integriert, der es Menschen ermöglicht, die Roboter bei Bedarf sofort zu deaktivieren.

Ein weiteres Element des Google-Robotik-Projekts ist das Datenerfassungssystem AutoRT, das es den Robotern ermöglicht, ihre Umgebung zu verstehen, Objekte zu identifizieren und daraus entsprechende Aufgaben abzuleiten. Im Original: AutoRT will dem Entscheidungsträger eine Roboterverfassung an die Hand zu geben – eine Reihe von sicherheitsorientierten Aufforderungen, die er bei der Auswahl der Aufgaben für die Roboter zu beachten hat. Diese Regeln sind zum Teil von Isaac Asimovs Drei Gesetzen der Robotik inspiriert – an erster Stelle steht, dass ein Roboter „keinen Menschen verletzen darf“. Weitere Sicherheitsregeln besagen, dass kein Roboter Aufgaben ausführen darf, die mit Menschen, Tieren, scharfen Gegenständen oder elektrischen Geräten zu tun haben. Aber selbst wenn große Modelle durch Selbstkritik korrekt angeleitet werden, kann dies allein keine Sicherheit garantieren. Daher umfasst das AutoRT-System mehrere Schichten von praktischen Sicherheitsmaßnahmen aus der klassischen Robotik, denn so sind die kollaborierenden Roboter so programmiert, dass sie automatisch anhalten, wenn die auf ihre Gelenke wirkende Kraft einen bestimmten Schwellenwert überschreitet, und alle aktiven Roboter wurden mit einem physischen Deaktivierungsschalter in Sichtweite einer menschlichen Aufsichtsperson gehalten.

Innerhalb von nur sieben Monaten hat Google erfolgreich 53 AutoRT-Roboter in vier Bürogebäuden eingesetzt. In dieser Zeit führten sie über 77.000 Versuche durch, um die Fähigkeiten der Roboter zu testen. Einige dieser Roboter wurden von menschlichen Bedienern ferngesteuert, während andere defi Skripten folgten oder autonom mithilfe des KI-Lernmodells Robotic Transformer (RT-2) von Google arbeiteten. Bemerkenswert ist, dass diese Roboter praktisch aussehen und über eine Kamera, einen Roboterarm und eine mobile Basis verfügen. Das Visual Language Model (VLM) hilft ihnen dabei, ihre Umgebung zu verstehen und Objekte zu dent , während das Large Language Model (LLM) bei der Entscheidungsfindung hilft und dafür sorgt, dass Roboter Aufgaben effektiv und sicher ausführen.

Literatur

https://www.cryptopolitan.com/de/google-stellt-roboterverfassung-vor/ (24-01-07)
https://t3n.de/news/google-roboter-verfassung-ki-keine-menschen-verletzen-1600546/
https://www.grenzgebiete.net/tag/assistenzsysteme/
https://de.wikipedia.org/wiki/Robotergesetze

Mimik der Robotergesichter

Forscher der Universität Osaka in Japan haben jetzt den Grundstein dafür gelegt, dass Robotergesichtern eine Mimik zuteil werden kann, die von der des Menschen kaum noch zu unterscheiden ist. Das wäre vor allem für Service- und Pflegeroboter wichtig, bei denen es darauf ankommt, dass sie mit ihren Klienten ein Vertrauensverhältnis aufbauen können. Die Experten haben am Gesicht einer Person 125 Tracking-Marker platziert, um selbst die sparsamsten Bewegungen der Muskeln bei 44 verschiedenen Gesichtsausdrücken zu dokumentieren wie das Blinzeln oder das Anheben der Mundwinkel.

Einfache Bewegungen komplex

Jeder Gesichtsausdruck resultiert aus einer Vielzahl lokaler Verformungen, da die Muskeln die Haut dehnen oder straffen. Selbst die einfachsten Bewegungen können überraschend komplex sein. Dass menschliche Gesicht enthält eine Ansammlung verschiedener Gewebetypen unter der Haut, von Muskelfasern bis hin zu Fett, die alle zusammenarbeiten, um das aktuelle Befinden zu vermitteln. Dazu gehört alles von einem breiten Lächeln bis hin zu einem Anheben der Augenbrauen.

Diese Vielfalt macht die Mimik so subtil und nuanciert, was es wiederum schwierig gestaltet, sie künstlich zu reproduzieren, so die Forscher. Bisher beruhte dies auf viel einfacheren Messungen der gesamten Gesichtsform und der Bewegung ausgewählter Punkte auf der Haut vor und nach Bewegungen. „Unsere Gesichter sind uns so vertraut, dass wir die feinen Details nicht wahrnehmen. Aber aus technischer Sicht sind sie erstaunliche Informationsanzeigegeräte. Anhand der Gesichtsausdrücke von Menschen können wir erkennen, ob sich hinter einem Lächeln Traurigkeit verbirgt oder ob jemand müde oder nervös ist“, so Forscher Hisashi Ishihara.

Auch für medizinische Diagnostik

Die gesammelten Infos helfen den Forschern, künstliche Gesichter menschenähnlicher zu machen – ob es sich um Bildschirmdarstellungen handelt oder dreidimensionale Robotergesichter. „Unsere Deformationsanalyse erklärt, wie aus einfachen Gesichtsbewegungen anspruchsvolle Ausdrücke entstehen,“ so Mechanik-Professor Akihiro Nakatani. Sie könnte auch die Gesichtserkennung oder medizinische Diagnosen verbessern, indem Anomalien der Gesichtsbewegungen analysiert werden, die auf bestimmte Krankheiten hindeuten. Bisher ist dazu die Erfahrung eines Arztes nötig.

Quelle: www.pressetext.com
(pte002/10.11.2023/06:05)

Was ist ein Cobot?

Ein Cobot ist ein kollaborativer Roboter, der speziell dafür entwickelt wurde, sicher und effektiv mit Menschen zusammenzuarbeiten.
Im Gegensatz zu traditionellen Industrierobotern, die typischerweise in abgesperrten Bereichen arbeiten und von Menschen ferngehalten werden müssen, können Cobots sicher in der Nähe von Menschen arbeiten, ohne dass dabei ein Risiko für Verletzungen besteht.

Cobots sind mit fortschrittlichen Sensoren und Technologien ausgestattet, die es ihnen ermöglichen, ihre Umgebung und die Bewegungen von Menschen in der Nähe zu erkennen. Sie können auch programmiert werden, um bestimmte Aufgaben auszuführen, wie z.B. die Montage von Teilen, die Verpackung von Produkten oder die Durchführung von Inspektionsaufgaben. Da Cobots in der Lage sind, gemeinsam mit Menschen zu arbeiten, können sie die Effizienz und Produktivität in vielen industriellen Anwendungen steigern und gleichzeitig das Risiko von Verletzungen oder Unfällen verringern (Stangl, 2023).


Dazu einige Horrormeldungen aus den Medien:

Ein Industrie-Roboter in Südkorea hat einen Techniker zu Tode gequetscht. Der Roboter war dazu entworfen worden, Kisten mit Paprikaschoten zu greifen und sie auf eine Palette zu legen. Als der etwa 40 Jahre alte Mitarbeiter einer Robotik-Firma gerade dabei war, die Sensoren des Roboters zu kontrollieren, schnappte dieser sich den Techniker, stieß ihn mit dem Oberkörper gegen das Fließband und zerdrückte dabei Brust und Gesicht. Der Mann wurde ins Krankenhaus gebracht, erlag dort aber seinen schweren Verletzungen.
Im Volkswagenwerk Baunatal war ein 22-Jährige bei einer Produktionslinie der Elektromotorenfertigung mit dem Einrichten eines Roboters beschäftigt, als dieser ihn erfasste und gegen eine Metallplatte drückte. Der Mitarbeiter erlitt schwere Quetschungen im Brustbereich, wurde zwar wiederbelebt, starb aber später im Krankenhaus.

Literatur

Stangl, B. (2023, 23. Februar). Cobot . roboter lexikon.
https:// roboter.stangl.wien/cobot/

Weiche Sensoren in der Robotik

Weiche Sensoren, die zwischen Scher- und Normalkraft unterscheiden können, könnten Maschinen die Feinsteuerung ermöglichen, die für eine sichere und effektive physische Interaktion mit Menschen erforderlich ist. Die Entwicklung von solchen Sensoren in Verbindung mit künstlicher Intelligenz steigert die Fähigkeiten von Robotern und macht sie lebendiger, was neue Möglichkeiten für die Zusammenarbeit zwischen Menschen und Robotern eröffnet. Dies ist wichtig, damit die Roboter intelligenter entscheiden können, welche Sensoren sie verwenden und wie sie auf verschiedene Situationen reagieren sollen. Da die Sensoren immer hautähnlicher werden und auch Temperatur und sogar Schäden erkennen können, müssen Roboter intelligenter entscheiden, auf welche Sensoren sie achten und wie sie reagieren sollen. Die Entwicklung von Sensoren und künstlicher Intelligenz muss daher Hand in Hand gehen.

Sarwar et al. (2023) haben einen kapazitiver Sensor entwickelt, der aus gemustertem Elastomer besteht und sowohl feste als auch gleitende Säulen enthält, die es dem Sensor ermöglichen, sich zu verformen und zu wölben, ähnlich wie die Haut selbst. Der Sensor unterscheidet zwischen einer gleichzeitig wirkenden Normalkraft und einer Scherkraft, indem er die Signale von vier verformbaren Kondensatoren summiert und differenziert. Darüber hinaus kann die Nähe der Finger in einem Bereich von bis zu 15 mm erkannt werden. Die Funktionsweise wird von den Forschern an einem einfachen Greifer demonstriert, der einen Becher hält, wobei die Kombination von Merkmalen und die einfache Herstellungsmethode diesen Sensor zu einem Kandidaten für die Implementierung als Sensorhaut für humanoide Roboteranwendungen machen.

Neue Sensoren können auf der Oberfläche einer Prothese oder eines Roboterglieds angebracht werden und ermöglicht es diesen, Berührungen wahrzunehmen und Aufgaben auszuführen, die bisher für Maschinen äußerst schwierig waren, wie etwa das Aufheben einer weichen Frucht. Darüber hinaus haben neue Sensoren eine weiche Textur, die sie wie menschliche Haut aussehen lässt, was eine sicherere und natürlichere Interaktion mit Menschen ermöglicht. Dadurch kann ein Prothesen- oder Roboterarm auf taktile Reize mit Geschicklichkeit und Präzision reagieren. also etwa zerbrechliche Gegenstände wie ein Ei oder ein Glas Wasser halten, ohne sie zu zerdrücken oder fallen zu lassen. Der Kern solcher Sensoren besteht aus Silikonkautschuk, einem Material, das in der Filmindustrie häufig zur Erzeugung spezieller Hauteffekte verwendet wird. Das einzigartige Design dieser Sensoren verleiht ihnen die Fähigkeit, sich zu biegen und zu falten, ähnlich wie die menschliche Haut. Solche Sensoren nutzen schwache elektrische Felder zur Erkennung von Objekten, auch aus größerer Entfernung, und ermöglicht es Robotern, sicher mit Menschen zu interagieren.

Literatur

Sarwar, Mirza S., Ishizaki, Ryusuke, Morton, Kieran, Preston, Claire, Nguyen, Tan, Fan, Xu, Dupont, Bertille, Hogarth, Leanna, Yoshiike, Takahide, Qiu, Ruixin, Wu, Yiting, Mirabbasi, Shahriar, Madden & John D. W. (2023). Touch, press and stroke: a soft capacitive sensor skin. Scientific Reports, 13, doi:10.1038/s41598-023-43714-6.
https://gagadget.com/de/science/342373-durchbruch-in-der-robotik-wissenschaftler-haben-zusammen-mit-honda-einen-sensor-entwickelt-der-der-menschlichen-h/ (23-10-29)

Der Roboter mit dem Elefantenrüssel

Von Elefantenrüsseln inspiriert haben Schweizer Forscher der École Polytechnique Fédérale de Lausanne einen neuen Roboter entwickelt, der künftig im Gesundheitswesen zum Einsatz kommen soll. Ziel ist es, Roboter näher an die Menschen heranzuführen, da dieser weiche Roboterarm eine Zukunft verkörpert, in der Maschinen die Bedürfnisse der Menschen besser unterstützen, ergänzen und verstehen als je zuvor. Der Kern der Entwicklung liegt in der neuartigen Architektur des Roboterarms, und zwar hat man eine spiralartige Struktur, einen sogenannten Helikoiden, modifiziert, indem man Teile davon abgeschnitten hat, was es ermöglicht, genau zu steuern, wie flexibel oder steif die Spirale in verschiedenen Richtungen wird.

Quelle

https://www.blick.ch/wirtschaft/fuer-einsatz-im-gesundheitswesen-schweizer-forscher-entwickeln-elefantenruessel-roboter-id19080904.html (23-10-27)

Pepper als Entertainer

Pepper ist ein humanoider Roboter, der von den französischen Unternehmen Aldebaran Robotics und SoftBank Robotics entwickelt wurde,  ist etwa 1,20 Meter groß und 28 Kilogramm schwer und hat einen freundlichen und einladenden Gesichtsausdruck. Pepper ist darauf programmiert, Menschen und deren Mimik und Gestik zu analysieren und auf diese Emotionszustände entsprechend zu reagieren, d. h., er kann auf Fragen antworten, Gespräche führen und sogar Emotionen ausdrücken. Pepper wird in einer Reihe von Branchen eingesetzt, darunter Einzelhandel, Gesundheitswesen und Bildung, also etwa in Geschäften als Kundenservice-Bot, in Krankenhäusern als Begleiter für Patienten und in Schulen als Lernhelfer.

Der 2014 entwickelte erste humanoide Roboter Pepper ist ein Robotik-System, das vor allem Pflegekräfte bei ihrer Arbeit unterstützen soll. Er spricht mit seinen großen Kulleraugen das Kindchenschema an. Pepper wird vor allem eingesetzt, um Bewohner oder Patienten zu unterhalten, ihnen Gesellschaft zu leisten oder einfache Aufgaben zu übernehmen, wie Aufklärung oder das Erinnern an die Medikamenteneinnahme.  Pepper erkennt mit seinen Fähigkeiten Emotionen und reagiert durch Anpassung seiner Gestik, Mimik und Sprache.

Auch wenn Pepper schon eher an den goldenen C-3PO erinnert, geht es auch bei seinem Einsatz nicht darum, dass KI eigenständig denkt und handelt, sondern um die Frage, ob und wie Robotik die Pflege unterstützen kann. Mit dem Tablet auf der Vorderseite des Roboters kann das Gegenüber mit Pepper interagieren.

SanTo – ein Gebets-Roboter

Gabriele Trovato, außerordentlicher Professor am Innovative Global Program des Shibaura Institute of Technology in Tokio, Japan, hat nach einer Pressemeldung den ersten Roboter entwickelt hat, der Gläubigen bei der Suche nach einem Bibeltext oder einem Gebet helfen soll. SanTO steht als Akronym für SANctified Theomorphic Operator und ist ein Roboter, der wie die Statue eines Heiligen in einer Nische aussieht.

Seine Rolle ist die eines Gebetsbegleiters, der aus der Bibel vorlesen, Gebete vorschlagen, Passagen zu verschiedenen Themen zitieren und die Geschichte der Heiligen des Jahres erzählen kann. Sein Design ist eine Mischung aus Technik und sakraler Kunst, die den goldenen Schnitt einbezieht und auf einem neoklassizistischen Stil basiert.

Es handelt sich um den ersten katholischen Roboter.

Die Steuerung ist so konzipiert, dass sie auch für ältere Menschen leicht verständlich ist, denn diese müssen nur die Hände des Roboters berühren, um ihn zu aktivieren, den Rest erledigt die Stimme. Um eine Frage zu stellen, gibt es eine bestimmte Zeit, nach der SanTO antwortet, und die Halo-Lichter regeln das Timing des Gesprächs.

Quelle

https://de.catholicnewsagency.com/news/14279/santo-dieser-roboter-hilft-beim-beten (23-10-22)

Kooperation Mensch mit Roboter

Eine Studie der Hochschule Coburg zeigt, dass Menschen eine humanoide Form bei Robotern nicht immer als positiv empfinden. Untersucht wurde, welche Rolle die Vermenschlichung bei kooperativen Handbewegungen zwischen Mensch und Roboter spielt. Menschen neigen dazu, ein menschliches oder menschenähnliches Gegenüber zu imitieren, was auf die Aktivierung von Spiegelneuronen zurückzuführen ist, die beim Lernen durch Imitation eine wichtige Rolle spielen. Dies führt zu Bewegungsablenkungen bei der gemeinsamen Aufgabenbewältigung von Mensch und Roboter, so dass der Mensch aktiv gegen diese Ablenkungen arbeiten muss, was zu zusätzlichen Belastungen führt, wie in der Studie mit einem Roboterarm in menschenähnlicher Schulteraufhängung im Vergleich zur Tischaufhängung gezeigt wurde. Menschenähnlichkeit ist also nicht immer positiv zu bewerten, und der Grad der Menschenähnlichkeit muss im praktischen Einsatz von Robotern stets abgewogen werden, um eine Balance zwischen Intuitivität und Belastungsarmut zu finden.

Humanoide Roboter auf einer Pressekonferenz

Eine Gruppe humanoider Roboter stand im Mittelpunkt einer Pressekonferenz in Genf, die von der Internationalen Fernmeldeunion der Vereinten Nationen organisiert wurde. Ziel der Pressekonferenz war es, eine Plattform zu bieten, um sowohl die Fähigkeiten als auch die Grenzen humanoider Roboter aufzuzeigen. Durch die Zusammenführung dieser menschenähnlichen Maschinen an einem Ort bot die Veranstaltung eine einzigartige Gelegenheit, ihre potenziellen Anwendungen und die Grenzen ihrer Fähigkeiten zu bewerten. Obwohl die Roboter ehrgeizige Ansprüche an ihre Führungsqualitäten stellten, bestand ihr eigentlicher Zweck darin, menschliche Bemühungen zu unterstützen, anstatt sie vollständig zu ersetzen. Ziel der Konferenz war es, eine Diskussion über die Zukunft der künstlichen Intelligenz anzuregen, indem Reportern die Möglichkeit gegeben wurde, Fragen direkt an diese menschenähnlichen Maschinen zu stellen.

Die Pressekonferenz mit dem Titel „AI for Good Global Summit“ stellte einen bedeutenden Meilenstein dar, da es sich um das erste Treffen überhaupt handelte, bei dem humanoide soziale Roboter als Hauptredner auftraten. Das Gremium bestand aus neun Robotern mit einzigartigen Zwecken und Eigenschaften. Zu den bemerkenswerten Teilnehmern gehörten Sophia, die erste Botschafterin für Roboterinnovation des Entwicklungsprogramms der Vereinten Nationen (UNDP); Grace, ein auf das Gesundheitswesen ausgerichteter Roboter; und Desdemona, ein Rockstar-Roboter. Außerdem ähnelten Geminoid und Nadine im Aussehen ihren Schöpfern auffallend.

Literatur

https://www.cryptopolitan.com/de/humanoide-roboter-auf-der-un-pressekonferenz-in-genf/ (23-07-09)

Pflegeroboter Lio

Pflegeroboter Lio erzählt Witze und Geschichten, spielt Musik ab und gibt Wetterprognosen durch. Bei einigen Bewohnerinnen und Bewohnern eines Pflegeheims ist Lio sehr beliebt, denn die Bewohnerinnen und Bewohner laufen ihm teilweise nach, und lassen sich von ihm so zu mehr Bewegung animieren. Lio ist noch in Ausbildung und seine Fähigkeiten werden stetig erweitert, so fährt Lio von Zimmer zu Zimmer und bietet den Bewohnerinnen und Bewohnern Unterhaltung an. Auch für den Transport, etwa von Wasserflaschen, wird Lio eingesetzt, er erinnert an Termine und bringt die Post. Wasserflaschen kann er zwar transportieren, das feinmotorische Geschick, diese auch zu überreichen, besitze er allerdings noch nicht.

Viele der Aufgaben erledigt Lio noch mit Unterstützung des Personals, denn man kann ihn nicht immer alleine mit Bewohnerinnen oder Bewohnern arbeiten lassen, denn so werden die Turnübungen jeweils von einer Bewegungstherapeutin begleitet und überwacht.

Gesteuert wird Lio entweder durch das Bewegen seines Kopfes oder durch Sprache.
Pflegekräfte ersetzen soll Lio definitiv nicht, denn das Ziel ist, dass er Pflegekräfte unterstützt. Er soll repetitive Arbeiten abnehmen, so dass Pflegende die Zeit haben, sich um andere Arbeiten zu kümmern. Bisher unterstützt Lio das Pflegefachpersonal aber nur eingeschränkt, denn gerade am Anfang habe der Roboter eher Mehraufwand bedeutet, da vieles nicht auf Anhieb funktioniert.

Quelle

https://www.inside-it.ch/assistenzroboter-hilft-in-der-pflege-mit-20230706 (23-07-07)