Sollen KI-Modelle auch schlafen?

In Bezug auf die Art und Weise, wie Menschen Erinnerungen speichern und abrufen, existieren unterschiedliche Theorien. Eine dieser Theorien ist die Complementary Learning Systems Theorie, welche besagt, dass das Zusammenspiel zwischen dem Hippocampus und dem Neokortex, zwischen einem vereinfacht gesagt schnell lernenden und einem langsam lernenden Hirnareal, maßgeblich daran beteiligt ist, neue Erfahrungen in Erinnerungen umzuwandeln. Dieser Prozess findet vorrangig im Schlaf statt.

Die Entwicklerinnen und Entwickler neuronaler Netze machen sich derartige Theorien aus der Hirnforschung zunutze. Im Jahr 2021 hat ein Team aus Singapur mit DualNet ein KI-Modell vorgestellt, welches sowohl einen langsamen als auch einen schnellen Trainingsprozess anwendet und somit das menschliche Lernen imitiert.

In einer aktuellen Studie gehen Forschende der Universität von Catania in Italien noch einen Schritt weiter, indem ihr Algorithmus mit an diese Theorie angelehnten Schlaf- und Wachphasen arbeitet. Man wollte herausfinden, ob KI-Modelle zuverlässiger werden, wenn sie nicht durchgängig mit neuen Informationen bombardiert werden, sondern zwischendurch die Möglichkeit haben, Informationen „sacken zu lassen”. In der Tat gibt es im maschinellen Lernen ein Phänomen, das als „katastrophales Vergessen“ bezeichnet wird. Hierbei vergessen die Algorithmen das zuvor Gelernte komplett. Eine mögliche Erklärung für dieses Phänomen ist, dass während des sequentiellen Lernens neue Repräsentationen die alten überlagern und somit aus dem Gedächtnis zurückdrängen.

Um zu überprüfen, ob eine Aufteilung in Schlaf- und Wachphasen die Algorithmen in der Anwendung robuster macht, haben die Forscherinnen und Forscher aus Catania eine Trainingsmethode namens Wake-Sleep Consolidated Learning entwickelt und auf ein Modell zur Bilderkennung angewendet. Sie führten eine Schlafphase ein, die die Zustände des menschlichen Gehirns nachahmt, in denen synaptische Verbindungen, Gedächtniskonsolidierung und das Lernen von Bildern im Vordergrund stehen.

In der Wachphase wurde das Modell mit Trainingsdaten gefüttert, in diesem Fall mit neuen Bildern von Tieren. In dieser Phase werden neue Erfahrungen gewissermaßen im Kurzzeitgedächtnis gespeichert. Die Wachphase wird durch die Schlafphase abgelöst, die sich ihrerseits in zwei Phasen unterteilt, die dem menschlichen Schlaf ähneln. Die erste Phase wird als Non-REM-Schlaf bezeichnet und dient der Verarbeitung von Erinnerungen, die während der Wachphase gesammelt wurden. Zudem werden vergangene Erfahrungen verarbeitet, wobei ältere Trainingsdaten im Langzeitgedächtnis konsolidiert werden. Die zweite Phase wird als REM-Schlaf bezeichnet und ist durch das Träumen gekennzeichnet. Des Weiteren ist der REM-Schlaf zu nennen, in dem das Träumen neue Erfahrungen simuliert und das Gehirn auf zukünftige Ereignisse vorbereitet. Diese Traumphase, in der die KI abstrakte Bilder mit verschiedenen Tierkombinationen verarbeitet, ist von Bedeutung, da sie dazu beiträgt, bisherige Wege digitaler Neuronen zusammenzuführen und somit Platz für andere Konzepte in der Zukunft zu schaffen. Dies sollte dazu beitragen, dass das Modell neue Konzepte leichter erlernen kann, was als eine Art Gehirnjogging für die KI bezeichnet werden kann.

Im Anschluss wurde der mit dieser Methode trainierte Algorithmus mit drei gängigen Bilderkennungsmodellen verglichen. Dabei zeigte sich, dass die Erkennungsrate zwischen zwei und zwölf Prozent höher lag. Zudem war der sogenannte Vorwärtstransfer höher, was bedeutet, dass das Modell mehr altes Wissen anwendete, um neue Aufgaben zu lernen. Dies lässt den Schluss zu, dass die Plastizität neuronaler Netze durch konkrete Schlaf- und Wachphasen verbessert werden kann.

Literatur

https://www.heise.de/news/Lernen-im-Schlaf-Wieso-auch-eine-KI-mal-abschalten-sollte-9621667.html (24-06-09)

Können Roboter arbeitslos werden?

Kurz und knapp: Nein, Roboter können nicht arbeitslos werden, denn Roboter und Maschinen sind keine Menschen, haben keine Bedürfnisse wie Menschen und müssen daher auch kein Geld verdienen, um zu leben. Roboter können also nicht im herkömmlichen Sinne arbeitslos werden, da sie keine Bedürfnisse und keine finanziellen Verpflichtungen haben, wie dies bei menschlichen Arbeitnehmern der Fall ist. Dennoch gibt es einige Aspekte, die betrachtet werden können, um diese Frage aus einer anderen Perspektive zu beleuchten:

1. Nutzung und Einsatz:
Ein Roboter, der für eine bestimmte Aufgabe nicht mehr benötigt wird, könnte als „arbeitslos“ betrachtet werden. Dies kann der Fall sein, wenn der Roboter durch eine neuere, effizientere Technologie ersetzt wird oder wenn die Aufgabe, für die der Roboter programmiert wurde, nicht mehr existiert.

2. Veralterung und Obsoleszenz:
Technologischer Fortschritt kann dazu führen, dass ältere Modelle von Robotern durch neue, leistungsfähigere Versionen ersetzt werden. Ältere Roboter können dann außer Betrieb genommen oder für andere, weniger anspruchsvolle Aufgaben umprogrammiert werden.

3. Wartung und Reparatur:
Roboter, die nicht mehr repariert oder gewartet werden können, weil Ersatzteile nicht mehr verfügbar oder die Wartungskosten zu hoch sind, könnten ebenfalls als „arbeitslos“ betrachtet werden.

4. Umprogrammierung:
Manchmal werden Roboter umprogrammiert, um andere Aufgaben zu übernehmen, anstatt vollständig außer Betrieb genommen zu werden. Dies zeigt eine gewisse Flexibilität von Robotern im Gegensatz zu menschlichen Arbeitskräften.

5. Wirtschaftliche Aspekte:
In wirtschaftlich schwierigen Zeiten könnten Unternehmen den Einsatz von Robotern reduzieren, um Kosten zu sparen. In solchen Fällen könnten Roboter nicht eingesetzt werden, obwohl sie theoretisch verfügbar wären.

Zusammenfassend lässt sich sagen, dass Roboter technisch gesehen nicht arbeitslos werden können, da sie keine Arbeit im menschlichen Sinne verrichten. Sie können jedoch inaktiv oder obsolet werden, wenn sie nicht mehr benötigt oder durch bessere Technologien ersetzt werden. Die Befürchtung, dass Roboter und Automatisierung zu Massenarbeitslosigkeit führen, ist weit verbreitet. Es ist richtig, dass Automatisierungstechnologien Aufgaben übernehmen können, die bisher von Menschen ausgeführt wurden, was in einigen Branchen zum Verlust von Arbeitsplätzen geführt hat. Aber Automatisierung schafft auch neue Arbeitsplätze, und Studien zeigen, dass sich Jobgewinne und -verluste langfristig die Waage halten: Die Langzeitstudien von Oxford Economics https://www.oxfordeconomics.com/resource/techonomics-talks-skilling-the-future/ und dem McKinsey Global Institute https://www.mckinsey.com/featured-insights/future-of-work/jobs-lost-jobs-gained-what-the-future-of-work-will-mean-for-jobs-skills-and-wages kommen zu dem Schluss, dass die Automatisierung zwar in einigen Bereichen zu Arbeitsplatzverlusten führen wird, gleichzeitig aber in anderen Bereichen neue Arbeitsplätze entstehen. Welche Berufe genau von der Automatisierung betroffen sein werden und welche neu entstehen, lässt sich nicht im Detail vorhersagen. Der Arbeitsmarkt wird sich jedoch in den nächsten Jahren weiter verändern und neue Qualifikationen und Kompetenzen werden gefragt sein.

Die Prägung des Alltagslebens in Japan durch Roboter

In Japan spielen Roboter eine bedeutende Rolle und werden nicht nur als technologische Innovation betrachtet, sondern haben auch eine starke soziale und emotionale Bedeutung gewonnen. Insbesondere in Bereichen wie der Gesellschaft für ältere Menschen und im Haushalt als Haustier-Ersatz sind Roboter weit verbreitet.

In Japan wird die Akzeptanz von Robotern als soziale Wesen und Lebensbegleiter besonders deutlich. Roboter dienen nicht nur als Spielkameraden, sondern werden auch als emotionale Partner betrachtet, die dazu beitragen, soziale und emotionale Bedürfnisse zu erfüllen. Beispielsweise werden Roboter als Haustier-Ersatz eingesetzt, um die Einsamkeit zu bekämpfen und älteren Menschen Gesellschaft zu leisten.

Die Verwendung von Robotern als Teil des Alltagslebens in Japan verdeutlicht den kulturellen und technologischen Wandel, der sich im Umgang mit Technologie und Robotern vollzieht. Sie werden nicht nur als Werkzeuge oder Maschinen betrachtet, sondern als integrale und akzeptierte Bestandteile des täglichen Lebens. Dies zeigt, wie Technologie, insbesondere Robotik, immer mehr in die soziale Interaktion, emotionale Unterstützung und Alltagsbewältigung integriert wird.

Nähe und Distanz in der sozialen Robotik

Nähe und Distanz sind wichtige Themen, die soziale Roboter erst lernen müssen. Es hängt viel von der Kultur der Menschen ab, mit denen sie interagieren. Roboter begegnen uns immer öfter im Alltag – in der Pflege, im Restaurant, im Haushalt und bei der Arbeit. Sie erledigen viele Aufgaben perfekt, aber bei sensibler Kommunikation haben sie oft Schwierigkeiten. Zum Beispiel können sie ältere Menschen nach ihren Kriegserlebnissen fragen, was für manche sehr unsensibel ist, da sie diese Erfahrungen lieber verdrängen würden. Dies zeigt auch, dass Roboter oft Stereotypen im Kopf haben – Mann, hohes Alter, Krieg.

Andererseits reagieren Menschen unterschiedlich auf Roboter, je nach ihrer eigenen Kultur. Damit Roboter nicht länger kulturelle Fehler machen, müssen wir sie besser schulen. Dies sollte nicht nur auf die Kultur des Gegenübers abgestimmt sein, sondern auch auf die Aufgabe, die der Roboter erfüllen soll. Wenn ein Roboter nur eine Aufgabe leise erledigen soll, gelten andere Kriterien als für Maschinen, die als Entertainer unterhalten oder einfühlsame Gespräche führen sollen.

Roboter sollten die Vorlieben und Abneigungen von Menschen abspeichern, um unangenehme Situationen zu vermeiden. Wenn Roboter weiterhin Stereotypen verwenden und kulturelle Unterschiede nicht berücksichtigen, könnte dies die Akzeptanz von Robotern in unserer Gesellschaft verringern oder sogar Stereotypen verstärken. Es ist schwierig, wenn Roboter versuchen, Gesten und Mimik zu interpretieren, da sich Emotionen und Gesichtsausdrücke oft zwischen Kulturen unterscheiden. Menschen in asiatischen Ländern haben weniger Vorbehalte gegenüber Robotern in sozialen Rollen als Nordamerikaner und Europäer, haben jedoch oft realistischere Erwartungen an ihre Fähigkeiten. Es ist wichtig, sich vorzustellen, wie ein sozial interaktiver Roboter aussehen und sich verhalten soll. Diese Fragen sollten interdisziplinär beantwortet werden, mit der Hilfe von Soziologen, Anthropologen, Psychologen, Philosophen, Neurowissenschaftlern und Künstlern. Es sollte nicht allein denjenigen überlassen werden, die Roboter designen, bauen und programmieren.

Es ist möglich, dass die Fähigkeit der Roboter, kulturelle Normen auszudrücken oder darauf einzugehen, durch die Hintergründe ihrer Entwickler begrenzt wird. Bisher wurden Beziehungen zwischen Mensch und Roboter hauptsächlich in den USA und Japan untersucht, wo die meisten Roboter hergestellt werden. Forscher betonen jedoch, dass es wichtig ist, in Zukunft auch andere Länder in diese Forschung einzubeziehen.

Digital Workers im Gesundheitswesen

Die Kombination von medizinischer Robotik und künstlicher Intelligenz wird schrittweise autonomere Lösungen zur Verbesserung der Patientenversorgung hervorbringen. Durch die Kombination fortschrittlicher Technologien wie Robotic Process Automation, künstliche Intelligenz und Business Process Management im Rahmen einer intelligenten Automatisierung wird es möglich sein, digitale Arbeitskräfte zu generieren, die zur Lösung des Problems des Fachkräftemangels im Gesundheitswesen beitragen können. Digital Workers“ sollen dabei als softwarebasierte Assistenten unterstützen, indem sie Aufgaben automatisieren und so die Prozesseffizienz und Versorgungsqualität steigern.

„Die Robotik ist im Gesundheitswesen angekommen und heute unverzichtbar. Das gilt von der Diagnostik über chirurgische Eingriffe am Patienten bis hin zur Therapie. Die Einsatzmöglichkeiten sind vielfältig: Biopsien bei Hirntumoren, teleoperative Ultraschalluntersuchungen oder die Rehabilitation nach Unfällen oder Schlaganfällen“, sagt Axel Weber, Vizepräsident der Business Unit Medical Robotics bei Kuka. Der Einsatz von Robotik und künstlicher Intelligenz im Gesundheitswesen habe zahlreiche Vorteile. „Viele medizinische Einrichtungen sind mit einem Mangel an Fachkräften konfrontiert, der sich negativ auf die Qualität der Diagnose und Behandlung ihrer Patienten auswirken kann. Roboter sind nicht nur in der Lage, die Qualität von Behandlungen, die höchste Präzision und innovative Technologie erfordern, zu verbessern, sie sind auch ausdauernder als Menschen und werden nicht müde.“ Sie können Ärzte oder Pflegekräfte zudem von monotonen oder körperlich anstrengenden Aufgaben entlasten, damit diese sich auf andere Aufgaben bei der Behandlung des Patienten konzentrieren, die ihre volle Aufmerksamkeit erfordern.

Literatur

https://www.diepresse.com/18501089/intelligenz-im-dienste-des-patienten (24-05-27)
https://themedicalnetwork.de/roboter-im-gesundheitswesen/ (22-12-12)

Dialekt in der Robotersprache erhöht seine Vertrauenswürdigkeit

Roboter werden zunehmend als Interaktionspartner mit Menschen eingesetzt, wobei soziale Roboter so konzipiert sind, dass sie den erwarteten Verhaltensnormen bei der Auseinandersetzung mit Menschen folgen und mit unterschiedlichen Stimmen und sogar Akzenten verfügbar sind. Einige Studien deuten darauf hin, dass Menschen es vorziehen, dass Roboter im Dialekt des Benutzers zu sprechen.

Kühne et al. (2024) untersuchten in einer Studie die Auswirkungen des Berliner Dialekts auf die wahrgenommene Vertrauenswürdigkeit und Kompetenz eines Roboters. Deutsche Muttersprachler sahen sich ein Online-Video mit einem NAO-Roboter, der entweder im Berliner Dialekt oder in Standarddeutsch sprach, und bewerteten seine Vertrauenswürdigkeit und Kompetenz. Dabei zeigte sich ein positiver Zusammenhang zwischen den selbst berichteten Berliner Dialektkenntnissen und Vertrauenswürdigkeit des im Dialekt-sprechenden Roboters. Bei der Analyse der demografischen Faktoren gab es einen positiven Zusammenhang zwischen den Dialektkenntnissen der Teilnehmer, der Dialektleistung und deren Bewertung der Kompetenz des Roboters für den Standard-Deutschsprachigen Roboter. Auch das Alter der Teilnehmer, das Geschlecht, die Aufenthaltsdauer in Berlin beeinflussten die Bewertungen, d. h., die Kompetenz des Roboters kann seine Vertrauenswürdigkeit positiv voraussagen. Menschen neigten offenbar dazu, Roboter zu bevorzugen, die ihnen irgendwie ähnlich sind.

Literatur

Kühne, Katharina, Herbold, Erika, Bendel, Oliver, Zhou, Yuefang & Fischer, Martin H. (2024). “Ick bin een Berlina”: dialect proficiency impacts a robot’s trustworthiness and competence evaluation. Frontiers in Robotics and AI, 10, doi:10.3389/frobt.2023.1241519.

Die Verbreitung von weißen Robotern

Viele soziale Roboter wie Kaspar, Nao, Pepper und iCub sind mit glänzend weißem Kunststoff verkleidet. Diese Designwahl hat die Frage aufgeworfen, warum diese Roboter dazu neigen, weiß zu sein, wenn sie mit Menschen unterschiedlicher Herkunft interagieren. Diese Art von Robotern ist in verschiedenen Bereichen wie Industrie, Dienstleistungen und Gesundheitswesen weit verbreitet. Die Verbreitung weißer Roboter ist wahrscheinlich eine Reaktion auf unterschiedliche funktionale, ästhetische und sicherheitsbezogene Anforderungen in verschiedenen Anwendungsbereichen.

  • NAOÄsthetik und Wahrnehmung: Weiße Roboter wirken oft sauberer und moderner, was in bestimmten Umgebungen wie Krankenhäusern oder Hotels wichtig sein kann, wo ein sauberes Erscheinungsbild erwünscht ist.
  • Sicherheit und Sichtbarkeit: Weiße Roboter sind oft besser sichtbar, insbesondere in Umgebungen mit vielen Menschen oder Maschinen, was dazu beitragen kann, Kollisionen zu vermeiden und die Sicherheit zu erhöhen.
  • Assoziation mit Sauberkeit und Reinheit: Weiß wird oft mit Sauberkeit und Reinheit assoziiert, was in Bereichen wie der Lebensmittelproduktion oder in Labors, in denen strenge Hygienevorschriften gelten, wichtig sein kann.
  • Temperaturregelung: Weiße Oberflächen reflektieren mehr Licht und absorbieren weniger Wärme als dunkle Oberflächen, was in Umgebungen mit hohen Temperaturen von Vorteil sein kann, um eine Überhitzung der Roboter zu vermeiden.

Der humanoide Roboter iCub3 kann Menschen umarmen

Die Forschergruppe um Stefano Dafarra vom Istituto Italiano di Tecnologia in Genua (Italien) hat mit iCub3 am internationalen Roboter-Avatar-Wettbewerb ANA Avatar XPrize teilgenommen. Während sich iCub3 im November 2021 durch die Kunstausstellung Biennale in Venedig bewegte, wurde er im 290 Kilometer entfernten Genua gesteuert. Der Bediener sammelte Eindrücke von der Ausstellung und unterhielt sich mit einer Begleiterin. Am Ende umarmte die Begleiterin den Roboter und der Operator und sein Avatar erwiderten die Umarmung. Er kommuniziert dabei über den Avatar mit Menschen über seine Stimme und seine Mimik, was insbesondere über die Augenbrauen, den Mund und die Augen geschieht. Der Roboter reagiert deshalb zum Beispiel mit einem vorprogrammierten Blinzeln, wenn er grellem Licht ausgesetzt ist.

Literatur

https://www.geo.de/wissen/forschung-und-technik/icub3–humanoider-roboter-kann-laufen-und-umarmen-34397404.html (24-01-25

Roboter-Verfassung

Bevor Roboter in unser tägliches Leben integriert werden können, müssen sie verantwortungsbewusst entwickelt werden und ihre Sicherheit in der Praxis durch solide Forschung nachgewiesen werden. Die Roboter-Verfassung ist ein hypothetisches Dokument, das die Rechte und Pflichten von Robotern festlegt und erstmals 1942 von dem Science-Fiction-Autor Isaac Asimov in seiner Kurzgeschichte „Runaround“ vorgestellt wurde. Asimovs Robotergesetze bilden die Grundlage der Roboterverfassung und lauten wie folgt:

  • Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zulassen, dass ein Mensch verletzt wird.
  • Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, diese Befehle stehen im Widerspruch zum Ersten Gesetz.
  • Ein Roboter muss seine eigene Existenz schützen, solange er dadurch nicht in Konflikt mit dem Ersten oder Zweiten Gesetz gerät.

Asimovs Robotergesetze wurden in den folgenden Jahrzehnten von vielen anderen Autoren aufgegriffen und weiterentwickelt. So wurden beispielsweise folgende zusätzliche Gesetze vorgeschlagen

  • Ein Roboter darf sich nicht in die menschlichen Angelegenheiten einmischen.
  • Ein Roboter darf keine Gefühle oder Empfindungen haben.
  • Ein Roboter darf nicht die Fähigkeit zur Selbstreproduktion haben.

Die Verfassung von Robotern ist ein wichtiges Thema in der Robotik und der künstlichen Intelligenz. Sie wird diskutiert, um sicherzustellen, dass Roboter sicher und menschenfreundlich sind.

In der Praxis gibt es noch keine verbindliche Roboterverfassung. Einige Länder haben jedoch Gesetze erlassen, die die Entwicklung und den Einsatz von Robotern regeln. So hat die Europäische Union die Verordnung über künstliche Intelligenz (KI-Verordnung) erlassen. Diese Verordnung enthält Bestimmungen zum Schutz der Privatsphäre, der Sicherheit und der Rechte des Menschen bei der Nutzung von KI-Systemen.

Die Entwicklung einer Roboterverfassung ist ein komplexer Prozess, an dem Wissenschaftler, Ingenieure, Philosophen und Politiker beteiligt sein müssen. Wichtig ist, dass die Roboterverfassung die Interessen aller Beteiligten, insbesondere der Menschen, berücksichtigt.


Das Google-Team Deepmind Robotics arbeitet an KI-gesteuerten Robotern, die eines Tages selbstständig im Haushalt oder im Büro helfen könnten. Mit der KI-Steuerung kommt auch ein gewisses Maß an Autonomie, das potenzielle Gefahren für Menschen mit sich bringen könnte. Diese Roboterassistenten dürfen keine Tätigkeiten ausführen, bei denen Menschen, Tiere, scharfe Gegenstände oder elektrische Geräte beteiligt sind. Ein weiteres Merkmal ist die automatische Stoppfunktion, d. h. wenn die Kraft auf die Gelenke der Roboter einen bestimmten Grenzwert überschreitet, stoppen sie sofort. Zusätzlich ist in jedem Roboter ein manueller Killswitch integriert, der es Menschen ermöglicht, die Roboter bei Bedarf sofort zu deaktivieren.

Ein weiteres Element des Google-Robotik-Projekts ist das Datenerfassungssystem AutoRT, das es den Robotern ermöglicht, ihre Umgebung zu verstehen, Objekte zu identifizieren und daraus entsprechende Aufgaben abzuleiten. Im Original: AutoRT will dem Entscheidungsträger eine Roboterverfassung an die Hand zu geben – eine Reihe von sicherheitsorientierten Aufforderungen, die er bei der Auswahl der Aufgaben für die Roboter zu beachten hat. Diese Regeln sind zum Teil von Isaac Asimovs Drei Gesetzen der Robotik inspiriert – an erster Stelle steht, dass ein Roboter „keinen Menschen verletzen darf“. Weitere Sicherheitsregeln besagen, dass kein Roboter Aufgaben ausführen darf, die mit Menschen, Tieren, scharfen Gegenständen oder elektrischen Geräten zu tun haben. Aber selbst wenn große Modelle durch Selbstkritik korrekt angeleitet werden, kann dies allein keine Sicherheit garantieren. Daher umfasst das AutoRT-System mehrere Schichten von praktischen Sicherheitsmaßnahmen aus der klassischen Robotik, denn so sind die kollaborierenden Roboter so programmiert, dass sie automatisch anhalten, wenn die auf ihre Gelenke wirkende Kraft einen bestimmten Schwellenwert überschreitet, und alle aktiven Roboter wurden mit einem physischen Deaktivierungsschalter in Sichtweite einer menschlichen Aufsichtsperson gehalten.

Innerhalb von nur sieben Monaten hat Google erfolgreich 53 AutoRT-Roboter in vier Bürogebäuden eingesetzt. In dieser Zeit führten sie über 77.000 Versuche durch, um die Fähigkeiten der Roboter zu testen. Einige dieser Roboter wurden von menschlichen Bedienern ferngesteuert, während andere defi Skripten folgten oder autonom mithilfe des KI-Lernmodells Robotic Transformer (RT-2) von Google arbeiteten. Bemerkenswert ist, dass diese Roboter praktisch aussehen und über eine Kamera, einen Roboterarm und eine mobile Basis verfügen. Das Visual Language Model (VLM) hilft ihnen dabei, ihre Umgebung zu verstehen und Objekte zu dent , während das Large Language Model (LLM) bei der Entscheidungsfindung hilft und dafür sorgt, dass Roboter Aufgaben effektiv und sicher ausführen.

Literatur

https://www.cryptopolitan.com/de/google-stellt-roboterverfassung-vor/ (24-01-07)
https://t3n.de/news/google-roboter-verfassung-ki-keine-menschen-verletzen-1600546/
https://www.grenzgebiete.net/tag/assistenzsysteme/
https://de.wikipedia.org/wiki/Robotergesetze

Mimik der Robotergesichter

Forscher der Universität Osaka in Japan haben jetzt den Grundstein dafür gelegt, dass Robotergesichtern eine Mimik zuteil werden kann, die von der des Menschen kaum noch zu unterscheiden ist. Das wäre vor allem für Service- und Pflegeroboter wichtig, bei denen es darauf ankommt, dass sie mit ihren Klienten ein Vertrauensverhältnis aufbauen können. Die Experten haben am Gesicht einer Person 125 Tracking-Marker platziert, um selbst die sparsamsten Bewegungen der Muskeln bei 44 verschiedenen Gesichtsausdrücken zu dokumentieren wie das Blinzeln oder das Anheben der Mundwinkel.

Einfache Bewegungen komplex

Jeder Gesichtsausdruck resultiert aus einer Vielzahl lokaler Verformungen, da die Muskeln die Haut dehnen oder straffen. Selbst die einfachsten Bewegungen können überraschend komplex sein. Dass menschliche Gesicht enthält eine Ansammlung verschiedener Gewebetypen unter der Haut, von Muskelfasern bis hin zu Fett, die alle zusammenarbeiten, um das aktuelle Befinden zu vermitteln. Dazu gehört alles von einem breiten Lächeln bis hin zu einem Anheben der Augenbrauen.

Diese Vielfalt macht die Mimik so subtil und nuanciert, was es wiederum schwierig gestaltet, sie künstlich zu reproduzieren, so die Forscher. Bisher beruhte dies auf viel einfacheren Messungen der gesamten Gesichtsform und der Bewegung ausgewählter Punkte auf der Haut vor und nach Bewegungen. „Unsere Gesichter sind uns so vertraut, dass wir die feinen Details nicht wahrnehmen. Aber aus technischer Sicht sind sie erstaunliche Informationsanzeigegeräte. Anhand der Gesichtsausdrücke von Menschen können wir erkennen, ob sich hinter einem Lächeln Traurigkeit verbirgt oder ob jemand müde oder nervös ist“, so Forscher Hisashi Ishihara.

Auch für medizinische Diagnostik

Die gesammelten Infos helfen den Forschern, künstliche Gesichter menschenähnlicher zu machen – ob es sich um Bildschirmdarstellungen handelt oder dreidimensionale Robotergesichter. „Unsere Deformationsanalyse erklärt, wie aus einfachen Gesichtsbewegungen anspruchsvolle Ausdrücke entstehen,“ so Mechanik-Professor Akihiro Nakatani. Sie könnte auch die Gesichtserkennung oder medizinische Diagnosen verbessern, indem Anomalien der Gesichtsbewegungen analysiert werden, die auf bestimmte Krankheiten hindeuten. Bisher ist dazu die Erfahrung eines Arztes nötig.

Quelle: www.pressetext.com
(pte002/10.11.2023/06:05)