Chat-GPT stellt sich vor

Chat-GPT (Generative Pre-trained Transformer) ist eine Anwendung, die auf menschliche Texteingaben mit einer möglichst sinnvollen Textausgabe reagiert. Sie beantwortet beispielsweise Fragen oder erstellt Texte gemäß Anweisung. Die Qualität der ausgegebenen Texte ist deutlich höher als bei bisherigen KIs und korreliert mit Qualität, Präzision und Konstruktivität der Eingaben des Nutzers. Chat-GPT ist über Web-Browser erreichbar unter der Adresse https://chat.openai.com . Für die Nutzung ist die Erstellung eines Accounts unter Angabe einer E-Mail-Adresse erforderlich. Für seine Antworten greift die Anwendung auf einen Pool aus Daten aus dem Jahr 2021 zurück und verfeinert das gespeicherte Wissen aber auch aus Nutzereingaben, die auf Plausibilität geprüft werden. Die KI ist darauf programmiert, hilfreich, höflich und konstruktiv zu agieren, wobei in ihr einige grundlegende ethische Normen implementiert sind, wie etwa dass durch seine Antworten Menschen nicht zu Schaden kommen. Hinter Chat-GPT steht der Software-Entwickler Sam Altman, dessen Firma OpenAI im Silicon Valley in San Francisco ansässig ist.

Wenn man ChatGPT direkt fragt:

Lieber ChatGPT, könntest Du Dich einmal vorstellen, damit Menschen einmal wissen, was Du genau bist?

Ich bin ChatGPT, ein Sprachmodell, das von OpenAI trainiert wurde. Ich bin in der Lage, natürliche Sprache zu verstehen und zu generieren und kann daher in vielen Anwendungen wie Chatbots, automatischen Textgeneratoren und mehr eingesetzt werden. Ich bin ständig darauf ausgelegt, mein Wissen und meine Fähigkeiten zu verbessern, indem ich auf neue Daten und Anwendungen trainiert werde. Ich bin hier um Ihnen zu helfen, Fragen zu beantworten und Informationen zu bereitstellen.

Kannst du ein bisschen genauer beschreiben, auf welche Quellen du bei deinen Antworte zurückgreifst?

ChatGPT ist ein sogenannter „Transformer“-basierter Sprachgenerator, der auf einer riesigen Menge an Texten trainiert wurde, um natürliche Sprache zu verstehen und zu produzieren. Während des Trainingsprozesses wurde dem Modell eine große Menge an Texten zur Verfügung gestellt, die aus verschiedenen Quellen stammen, wie z.B. Nachrichtenartikel, Bücher, Blogs, soziale Medien und viele mehr. So erlernt das Modell die verschiedenen Schreibstile und die Regeln der Grammatik und des Wortschatzes, sowie die verschiedenen Kontext und Bedeutungen eines Wortes. Durch diesen Prozess wird ChatGPT in der Lage sein, auf eine Vielzahl von Fragen und Anfragen zu antworten und auf unterschiedliche Weise zu schreiben.

Wie wichtig wirst Du eines Tages für uns Menschen sein?

Ich werde wahrscheinlich eine wichtige Rolle in vielen Bereichen spielen, wie zum Beispiel im Kundenservice, in der Produktentwicklung und im Geschäftsprozessmanagement. Ich kann auch dazu beitragen, menschliche Fehler zu reduzieren und die Effizienz in vielen Aufgabenbereichen zu verbessern. Allerdings wird es immer wichtig sein, dass Menschen die Kontrolle behalten und entscheiden, wie und wann ich eingesetzt werden sollte.

Was machst du, wenn Dir Menschen dumme Fragen stellen?

Ich bin programmiert, um auf alle Fragen, die mir gestellt werden, so gut wie möglich zu antworten. Ich habe keine Fähigkeit, Fragen als „dumm“ zu beurteilen. Ich versuche immer, so präzise und hilfreich wie möglich zu antworten, unabhängig davon, wie leicht oder schwierig die Frage ist. Wenn ich eine Frage nicht verstehe oder nicht genug Informationen habe, um sie zu beantworten, werde ich mein Bestes tun, um zu erklären, warum ich das tue und wie ich helfen kann, die Frage zu klären.

Künstliche Intelligenz und Gesichtserkennung

Der Blick in ein neues Gesicht, der Klang einer unbekannten Stimme ist für das menschliche Gehirn eine große Herausforderung, denn in weniger als einer halben Sekunde wird entschieden, wem man vertraut, wen man man und für wie intelligent man diese Person hält, was auf einer erstaunlichen Arbeitsleistung des Gehirns beruht.

Schon als Babys lernen Menschen Gesichtsausdrücke zu lesen und auch wenn diese älter werden, hören sie nicht auf, die Emotionen der Mitmenschen zu studieren und zu versuchen, hinter deren Fassade zu blicken. Dabei spielt die Stimme eine entscheidende Rolle, also Geschwindigkeit, Syntax, Tonfall, Phonetik, die darüber Aufschluss geben, was ein Mensch fühlt.

Seit neuestem lernt die Technologie der künstlichen Intelligenz ebenfalls, Gesichter und Stimmen zu bestimmen, wobei ein Foto oder ein gesprochener Satz in der Regel ausreicht, um Informationen über Identität, Gesundheit, Emotionen und sogar die Persönlichkeit zu erhalten. Die künstliche Intelligenz kann inzwischen anhand des Klangs der Stimme erkennen, ob man an Parkinson, Depressionen oder sogar Covid-19 leidet.

Literatur

https://www.dw.com/de/die-magie-von-gesicht-und-stimme/a-62853377 (22-09-22)

Es ist noch ein langer Weg …

Am Forschungszentrum Jülich hat man ein neuronales Netzwerk mit 300 Millionen Synapsen in bislang unerreichter Geschwindigkeit simuliert, wobei es gelang, die Netzwerk-Aktivität viermal schneller als in Echtzeit zu berechnen. Für ihren Rekord nutzte man einen Prototyp des „neuronalen“ IBM-Supercomputers INC-3000.

Es handelt sich um ein Netzwerk, das von seiner Größe her etwa 1 Kubikmillimeter der Hirnrinde entspricht. Es besteht aus 80.000 Neuronen, die über 300 Millionen Synapsen miteinander verbunden sind. Ein solches Netzwerk hat noch keine Lernfunktion. Es soll vielmehr eine realitätsnahe Vernetzung abbilden und erzeugt gerade genügend Stimulus, um zu biorealistischen Aktivitätsmustern zu kommen. Das Netz beschäftigt sich praktisch selbst – man spricht hier auch von einem rekurrenten Netz, das mit den Aktivitätsmustern, die es produziert, wieder eigene Aktivitätsmuster hervorruft. Dieses Netzwerk ist sehr gut untersucht und eignet sich daher, um die Leistungsfähigkeit von Computerarchitekturen hinsichtlich der Simulation von neuronalen Netzen miteinander zu vergleichen. Allerdings umfasst dieses Netzwerk nur etwa ein Millionstel eines menschlichen Gehirns, und ist damit immer noch viel zu klein, um zu verlässlichen Aussagen über das Gehirn an sich zu kommen.

Biologische Gehirne sind vollkommen anders aufgebaut als die Computersysteme, wie sie beispielsweise im High-Performance-Computing (HPC) eingesetzt werden. Während in klassischen Supercomputern nur verhältnismäßig wenige, hochgetaktete Prozessoren unter strikter Trennung von Speicher- und Prozessoreinheiten Berechnungen durchführen, ist ein Gehirn aus einer massiven Anzahl hochgradig vernetzten Neuronen aufgebaut. Jedes Neuron für sich arbeitet zwar extrem langsam und damit energiesparend, dennoch ist unser Gehirn extrem leistungsfähig, da die Nervenzellen vollständig parallel arbeiten. Zudem ist der Grad der Vernetzung im Gehirn extrem. 80 Prozent des Hirnvolumens werden allein von Verbindungen zwischen Nervenzellen belegt. Die eigentlichen Neurone machen dagegen nur 16 bis 20 Prozent aus.

Ein weiteres grundlegendes Problem aller konventionellen Computerarchitekturen ist die strikte Trennung von Prozessor und Speicher. Biologische Nervenzellen dagegen können Informationen sowohl verarbeiten als auch speichern. In herkömmlichen Computersystemen müssen alle Informationen über eine enge Schnittstelle vom Prozessor zu einem Speichersystem transportiert werden, das ist der sogenannte Von-Neumann-Flaschenhals. Dies führt zu einer gewissen Verzögerung, Latenz genannt. Diese Latenz wird sich auch mit neuen Speichertechnologien nicht signifikant verbessern und bestimmt die Simulationsgeschwindigkeit maßgeblich, wie wir in unseren Untersuchungen nachweisen konnten. Die Kommunikation zwischen Nervenzellen ist zudem extrem energiesparend und geschieht fast ausschließlich über extrem spärliche neuronale Aktivitätsmuster. Übersetzt auf unsere Supercomputer bedeutet dies, dass man es ausschließlich mit sehr kurzen Datenpaketen zu tun hat. Die vorrangigen Computerstandards sind aber gerade für große Datenpakete optimiert. Auch bei der Kommunikation entstehen so für kurze Datenpakete große Latenzen.

Man nutze das INC-System von IBM vorrangig, weil sich damit unterschiedliche Schaltungen sehr flexibel herstellen lassen. FPGAs, Field Programmable Gate Arrays, enthalten frei programmierbare Logikbausteine mit eigenem Speicher und weiteren Hardware-Komponenten auf einem Chip. Weil der Speicher so nah an der Logik platziert ist, fallen die zuvor angesprochenen Speicher-Latenzen nicht ins Gewicht. Die Bausteine auf dem FPGA lassen sich außerdem beliebig umprogrammieren. Dies ist hilfreich, um beispielsweise verschiedene Architekturvarianten zu untersuchen. Da man die optimale Architektur und Schaltung im Vorfeld nicht immer eindeutig identifizieren kann, hilft die schnelle Rekonfigurierbarkeit, gute Lösungen herauszuarbeiten. So konnte man auch die optimale Schaltung finden, die den genannten Beschleunigungsfaktor ermöglichte. Derzeit werden in Simulationen noch sehr einfache Neuron- und Synapsenmodelle verwendet, die nur mit einer Handvoll mathematischer Gleichungen beschrieben werden können. Dieses Neuronenmodell ist aber mehr 120 Jahre alt. Es ist absehbar, dass eine realistischere Abbildung der Neuronendynamik und Lernvorgänge noch viel mehr Gleichungen benötigt, beispielsweise zur Beschreibung von Dendriten. Dabei handelt es sich um fein verzweigte Verästelungen, über die sich Nervenzellen untereinander verbinden. Heute weiß man: Diese Dendriten stellen keine passiven Leitungen dar und tragen aktiv zur Informationsverarbeitung bei. Schätzungsweise mehr als zwei Drittel der neuronalen Dynamik hängt davon ab. Diese dendritischen Strukturen finden heute noch gar keine Berücksichtigung. Zukünftig wird man also auch deutlich mehr Recheneinheiten benötigen, als heute in einem Prozessor zur Verfügung stehen, um die Vielzahl der gekoppelten Gleichungen in passabler Zeit zu lösen.

Grundsätzlich sind die Systeme umso schneller, je direkter sie ein neuronales Netzwerk auf Hardware-Ebene nachbilden. Das BrainScaleS-System aus Heidelberg besteht aus mehreren Wafern. Die Neuronen sind mitsamt ihren Verbindungen direkt auf dem Chip angelegt. Dieses System ist naturgemäß sehr schnell. Die Größe des Netzwerks, das sich auf diese Weise darstellen lässt, ist jedoch begrenzt. 300 Millionen Synapsen, wie wir sie simuliert haben, wären damit nicht machbar. Das Problem einer solchen Spezialarchitektur ist außerdem, dass man nachher unter Umständen nicht flexibel genug ist, um neue Features einzubauen.

Das britische System SpiNNaker gleicht dagegen eher einem herkömmlichen Superrechner. Es handelt sich hier um einen massiv-parallelen Computer, der über mehrere Hunderttausend ARM-Prozessoren, die eigentlich für Mobilfunkanwendungen optimiert sind, und ein besonderes Kommunikationsnetzwerk verfügt. Da hier ein zentraler Prozessor und ein davon abgetrennter Speicher vorliegen, läuft man wie bei allen herkömmlichen Rechnern automatisch in die Problematik mit der Latenz, also des verzögerten Transports von Informationen.

Grafikprozessoren (GPUs) werden derzeit vor allem für klassische neuronale Netze eingesetzt, eine realitätsgetreue Abbildung biologischer Netzwerke steht hier meist nicht im Vordergrund. Dabei geht es vor allem um Deep-Learning-Algorithmen. In GPU-basierten Systemen ist der Grad der Parallelität extrem hoch, das heißt, sie verfügen über vergleichsweise viele Recheneinheiten. Doch auch hier müssen Daten zwischen Prozessor und Speicher hin und her transportiert werden, was letztlich wieder das Problem mit der Latenz betont. Verglichen mit dem biologischen Gehirn sind GPUs außerdem immer noch extreme Energiefresser. Ein menschliches Gehirn hat eine Leistung von etwa 20 Watt, typische Serverfarmen mit GPU-basierten Rechenknoten kommen dagegen auf mehrere Mega-Watt, benötigen im Betrieb also das Hunderttausendfache an Energie.

Im Projekt „Advanced Computing Architectures (ACA): towards multi-scale natural-density Neuromorphic Computing” arbeitet man daran, Konzepte zu benennen, die man braucht, um große Netzwerke, die sehr komplex sind, berechnen zu können. Das wäre dann etwa ein Netzwerk mit 1 Milliarde Neurone, das so groß ist wie das Gehirn eines Säugetieres. In dem Projekt kooperiert man mit der RWTH Aachen, der University of Manchester und der Universität Heidelberg, die teils auch eigene neuromorphe Ansätze verfolgen. Übergeordnetes Ziel ist der Bau eines Computersystems, das es ermöglicht, Lernprozesse im Zeitraffer zu untersuchen. Das IBM INC-3000-System kam im Rahmen der Machbarkeitsstudie zum Einsatz und hat gezeigt, dass selbst bei Verwendung modernster Technologien dem erzielbaren Leistungsgewinn grundsätzlich Grenzen gesetzt sind. Neue, unkonventionelle Architekturen, Schaltungs- und Speicherkonzepte sind hier unumgänglich. Hierbei müssen Konzepte der Speicherarchitektur, der Kommunikation und der numerischen Berechnungseinheiten völlig neu elaboriert werden. Langfristiges Ziel ist die Entwicklung einer eigenen Architektur, die speziell auf diese Art von Simulationen zugeschnitten ist. Eine solche neuromorphe Beschleuniger-Architektur könnte dann idealerweise angekoppelt werden an die Jülicher Supercomputing-Infrastruktur. Man redet hier über einen großen Zeithorizont von 15 bis 20 Jahren.

Literatur

Arne Heittmann, Georgia Psychou, Guido Trensch, Charles E. Cox, Winfried W. Wilcke, Markus Diesmann and Tobias G. Noll (2022). Simulating the Cortical Microcircuit Significantly Faster Than Real Time on the IBM INC-3000 Neural Supercomputer, Front. Neurosci. , doi:10.3389/fnins.2021.728460

Kann es eine sozial kompetente künstliche Intelligenz geben?

Kinder und Jugendliche lernen Soft Skills, die sie später im Leben brauchen werden, und sie hören nicht auf zu lernen, wie sie später im Leben sozial kompetent sein können. Maschinelles Lernen ist die Grundlage, auf der fast alle künstlichen Intelligenzen beruhen, wobei künstliche neuronale Netze darauf trainiert werden können, Muster zu erkennen und sie später auf große weitere Datensätze anzuwenden. Ein sozial intelligenter Computer bzw. seine sozial-emotionale künstliche Intelligenz sollte in der Lage sein, Informationen in sozialen Situationen in Echtzeit zu erkennen und entsprechend auf menschliche Art und Weise zu reagieren. Menschlich bedeutet in diesem Zusammenhang, aus Situationen zu lernen, sich eine Meinung zu bilden und eigenständig Entscheidungen zu treffen. Dies soll z.B. eine produktive Zusammenarbeit zwischen Mensch und Maschine ermöglichen. Wissenschaftler arbeiten an der Entwicklung eines intelligenten Chatbots, d.h. einer künstlichen Intelligenz, die über einen Chat direkt mit Menschen kommunizieren kann, so dass die künstliche Intelligenz die Gefühle des Nutzers einordnen und entsprechend reagieren kann. Neben alltäglichen Aufgaben wie dem Kundenservice kann der Chatbot auch dazu beitragen, Stress und Depressionen bei den Nutzern abzubauen.

Literatur

Stangl, W. (2022, 9. August). Gibt es eine sozial kompetente künstliche Intelligenz? Stangl notiert …
https:// notiert.stangl-taller.at/zeitgeistig/gibt-es-eine-sozial-kompetente-kuenstliche-intelligenz/
https://scilogs.spektrum.de/hirn-und-weg/emotionale-intelligenz/ (22-08-09)

Künstliche Intelligenz in der Medizin

Zum Thema „Künstliche Intelligenz in der Medizin“ hat 1997 der Europarat die weltweit erste internationale Bioethikkonvention veröffentlicht, die vielen Mitgliedstaaten geholfen hat, ethische Standards in der Biomedizin zu formulieren. Auch ging es darum, die Kompatibilität dieser Normen mit denen der Europäischen Menschenrechtskonvention sicherzustellen. 2020 hat der Europarat dann einen strategischen Aktionsplan zu Menschenrechten und Technologien in der Biomedizin erstellt und will sich in den kommenden zwei Jahren intensiv mit Künstliche Intelligenz-Themen im Gesundheitswesen beschäftigen. Der britische Datenethik-Forscher Brent Mittelstadt von der Universität Oxford hat dazu einem Bericht erstellt. Darin wird vor möglichen Auswirkungen von Künstlicher Intelligenz auf Menschen- und Patientenrechte gewarnt, etwa im Hinblick auf Ungleichheiten beim Zugang zu hochwertiger Gesundheitsversorgung oder vor sozialen Vorurteilen, die in die Entwicklung von Künstlichen Intelligenz-Systemen einfließen. Mittelstadt fordert mehr Transparenz bei der Entwicklung und beim Einsatz solcher Technologien im Verhältnis zu medizinischen Fachkräften und Patienten sowie den Schutz der Vertraulichkeit von Patientendaten. Weiterhin schildert der Bericht mögliche Folgen der Künstlichen Intelligenz im Hinblick auf den Verlust von Kompetenzen bei Gesundheitsfachkräften und bei der Verlagerung von Verantwortung. Allerdings kann Künstliche Intelligenz Ärzte darin unterstützen, noch effektiver und effizienter zu arbeiten als bisher.

Literatur

Stangl, W. (2022, 16. Juni). Künstliche Intelligenz in der Medizin. Stangl notiert ….
https:// notiert.stangl-taller.at/allgemein/kuenstliche-intelligenz-in-der-medizin/

Neandertalergehirn für Roboter

Da der Paläogenetiker Svante Pääbo 2009 gemeinsam mit seinem Team das Neandertaler-Genom entschlüsselte, züchtet er nun Mini-Neandertalergehirne, die er in Roboter verpflanzen will. Von der Gehirnmasse der Neandertaler ist heute nichts mehr erhalten, allerdings gibt es im Labor des Institute of Molecular Biotechnology in Wien bereits stecknadelkopfgroße Abkömmlinge des urzeitlichen Vorbilds, die mit der Genschere CRISPR/Cas9 und natürlich dem Wissen über die alte DNA hergestellt wurden.


Anmerkung: Die Genschere Crispr/Cas9 ist eine neue Methode des Genome Editing und wird als Revolution in der Gentechnik gefeiert. Mit ihr lässt sich DNA in nahezu allen lebenden Zellen und Organismen einfach, schnell und vor allem präzise an einer bestimmten Stelle verändern. Das neue Präzisionswerkzeug ermöglicht es, DNA gezielt im Erbgut zu entfernen oder einzufügen. Crispr/Cas wird inzwischen standardmäßig in Forschung und Entwicklung eingesetzt und hat wesentlich zu deren Beschleunigung beigetragen. Vor allem bei der Heilung von Krankheiten und der Züchtung von Pflanzen, die beispielsweise der Klimakrise trotzen sollen, werden große Hoffnungen in Crispr/Cas gesetzt. Die Anwendung dieser Methode wirft jedoch auch ethische Fragen auf, die im Zusammenhang mit möglichen Anwendungen diskutiert werden.


Die Wissenschaftler setzten dann die Neandertaler-Variante des Gens NOVA1 in menschliche Stammzellen ein, wobei sie die Großhirnrinde der Neandertaler in einer winzig kleinernVersion wachsen ließen, wobei die Organoide wie Popcorn wirken, während die menschlichen Gehirne im Gegensatz eher eine Kugelform besitzen. Außerdem fanden sich im Inneren Strukturen, die sich auch bei Menschen zeigen, die mit neurologischen Defekten zu kämpfen haben. Wenn diese Organoide eines Tages perfek« sind, möchten die Forscher sie in krabbenähnliche Roboter verpflanzen, in der Hoffnung, dass die kleinen Gehirne die Maschinen steuern lernen.

Literatur

https://www.trendsderzukunft.de/forscher-zuechten-neandertaler-gehirne-um-sie-in-roboter-zu-pflanzen/ (21-11-28)

Roboter als Trainer im Sport

Der ORF Niederösterreich berichtet im Oktober 2021, dass Roboter als Trainer bei Vereinen aushilft, und zwar untersuchen die Sportunion Niederösterreich und das Austrian Institute of Technology (AIT) im Rahmen eines Forschungsprojekts den Einsatz von Robotern in Vereinstrainings. Untersucht werden soll nicht nur, inwieweit Roboter das Training in verschiedenen Sportarten unterstützen können, sondern auch, ob ihr Einsatz die Motivation der Mitglieder erhöht. Hinzu kommt, dass es Engpässe im Trainerbereich gibt. In den kommenden Wochen wird der Roboter bei verschiedenen Vereinen in Niederösterreich getestet – vom Leistungssport über den Kinder- bis hin zum Gesundheitsbereich. Erste Station ist Handball-Zweitligist St. Pölten, bei dem der Roboter unter anderem beim Krafttraining zum Einsatz, wo er die Übungen nicht nur aufzeichnet, sondern den Spielern auch zeigt, was sie besser machen können. Beim Handballtraining selbst übernimmt der Roboter Aufgaben des Übungsleiters. Die Spieler zeigen sich danach begeistert. Vor allem im Bereich des Kinder- und Jugendsports erhofft man sich viele positive Rückmeldungen.

Quelle

https://noe.orf.at/stories/3125398/

Das Problem des Antropomorphismus bei der Mensch-Roboter-Interaktion

Es wird allgemein angenommen, dass die Anwendung anthropomorpher Designmerkmale die Mensch-Roboter-Interaktion erleichtert, wobei eine beträchtliche Anzahl von Studienergebnissen jedoch in die entgegengesetzte Richtung deutet. Es gibt derzeit keine umfassende gemeinsame Grundlage für die Umstände, unter denen Anthropomorphismus die Interaktion mit Robotern fördert. Roesler et al. 2021) wollen mit dieser Meta-Analyse diese Lücke schließen. Insgesamt wurden 4856 Abstracts gescannt, wobei nach einer umfangreichen Auswertung 78 Studien mit rund 6000 Teilnehmern und 187 Effektgrößen in diese Meta-Analyse aufgenommen wurden. Die Mehrzahl der Studien befasste sich mit Auswirkungen auf die Wahrnehmung von Robotern. Darüber hinaus wurden aber auch Effekte auf einstellungsbezogene, affektive und verhaltensbezogene Aspekte untersucht. Insgesamt wurde eine mittlere positive Effektgröße gefunden, was auf einen positiven Effekt von anthropomorphen Designmerkmalen auf menschenbezogene Ergebnisse hinweist. Eine genauere Betrachtung der untersten Variablenebene ergab jedoch keinen positiven Effekt auf die wahrgenommene Sicherheit, das Einfühlungsvermögen und die Aufgabenleistung. Darüber hinaus deutet die Analyse darauf hin, dass positive Effekte von Anthropomorphismus stark von verschiedenen Moderatoren abhängen, denn etwa war der Anthropomorphismus im Gegensatz zu anderen Anwendungsbereichen eine ständige Erleichterung der sozialen Mensch-Roboter-Interaktion.

Insgesamt zeigte sich durchaus ein positiver Effekt von Anthropomorphismus auf die Wahrnehmung, die Einstellungen, und die affektiven und verhaltensbezogenen Reaktionen von Menschen in ihrer Interaktion mit Robotern, doch spezifischere Teilanalysen des Datensatzes zeigten aber, dass Anthropomorphismus bei Robotern keineswegs ein Universalmittel zur Förderung der Mensch-Roboter-Interaktion darstellt. So konnten keine Belege für positive Effekte von Anthropomorphismus auf die wahrgenommene Sicherheit von Robotern und die Aufgabenleistung bei gemeinsamen Aufgaben gefunden werden, die gerade in Bereichen, in denen Roboter als Werkzeuge benutzt werden, bedeutsam sind, zum Beispiel in Service oder Industrie. Besonders in Bezug auf das Aussehen und die Beschreibung von Robotern haben auch eigene Untersuchungen der ForscherInnen gezeigt, dass eine Ausstattung von Robotern mit menschenähnlichen Merkmalen in aufgabenbezogenen und industriellen Bereichen auch negative Konsequenzen haben kann. Dort kann Anthropomorphismus etwa den Werkzeugcharakter von Robotern verschleiern und damit zu einem geringeren Vertrauen führen.

In Bereichen, in denen Roboter für die Erledigung kollektiver Aufgaben benutzt werden, werden anthropomorphen Robotern als „intelligent“ oder „sympathisch“ erlebt, was aber nicht Hand in Hand mit einer tatsächlich besseren Leistung in der Zusammenarbeit mit Robotern gehen muss. Eine bedeutende Rolle spielt auch die Art der Implementierung anthropomorpher Elemente, denn diese Merkmale zeigen vor allem dann positive Effekte, wenn sie möglichst sinnhaft auf die Aufgabe bezogen gestaltet werden, etwa eine Augenbewegung, die signalisiert, was der Roboter gerade verarbeitet. Das ist besonders für die Gestaltung von Robotern für industrielle Anwendungen und den Servicebereich interessant, denn dort wird die Bedeutung von oberflächlicher Anthropomorphisierung aktuell scheinbar noch überschätzt.

Die Ergebnisse dieser Analyse geben einigen Aufschluss darüber, wie Designmerkmale genutzt werden können, um die Qualität sie Mensch-Roboter-Interaktion zu verbessern.

Literatur

Roesler, E., Manzey, D. & Onnasch, L. (2021). A meta-analysis on the effectiveness of anthropomorphism in human-robot interaction. Science Robotics, doi: 10.1126/scirobotics.abj5425.

Wenn dich ein Roboter anblickt …

In den meisten Situationen des täglichen Lebens muss das Gehirn nicht nur Entscheidungen treffen, sondern auch das Verhalten anderer vorhersehen und voraussagen. In solchen Kontexten kann der Blick sehr aufschlussreich über die Absichten, Ziele und bevorstehenden Entscheidungen anderer sein. In einer Studie haben Belkaid et al. (2021) untersucht, ob der Blick eines humanoiden Roboters (gegenseitig oder abgewandt) die Art und Weise beeinflusst, wie Menschen in einem sozialen Entscheidungskontext strategisch denken. Konkret spielten die Teilnehmer ein strategisches Spiel mit dem Roboter iCub, während man ihr Verhalten und ihre neuronale Aktivität mittels Elektroenzephalographie (EEG) maß. Die Teilnehmer reagierten langsamer, wenn iCub vor ihrer Entscheidung einen gegenseitigen Blickkontakt herstellte, als wenn sie den Blick abwandten. Dies war mit einer höheren Entscheidungsschwelle im Drift-Diffusionsmodell verbunden und wurde von einer stärker synchronisierten EEG-Alpha-Aktivität begleitet. Außerdem stellte man fest, dass die Teilnehmer in beiden Situationen über die Aktionen des Roboters nachdachten. Diejenigen, die den abgewandten Blick am häufigsten erlebten, wählten jedoch mit größerer Wahrscheinlichkeit eine selbstorientierte Strategie, und ihre neuronale Aktivität zeigte eine höhere Empfindlichkeit gegenüber den Ergebnissen. Diese Ergebnisse deuten darauf hin, dass der Blick des Roboters für den Menschen ein starkes soziales Signal darstellt, das die Reaktionszeit, die Entscheidungsschwelle, die neuronale Synchronisation sowie die Wahlstrategien und die Sensibilität für die Ergebnisse beeinflusst. Dies hat erhebliche Auswirkungen auf alle Bereiche der Mensch-Roboter-Interaktion, von der Robotik bis zu klinischen Anwendungen. Der Einfluss sozialer Roboter kann daher auch hemmend sein, sodass der Dialog mit der Maschine auch Risiken birgt, besonders dann, wenn diese soziale Aufgaben übernehmen sollen.

Literatur

Marwen Belkaid, Kyveli Kompatsiari, Davide De Tommaso, Ingrid Zablith & Agnieszka Wykowska (2021). Mutual gaze with a robot affects human neural activity and delays decision-making processes. Science Robotics, 6, doi:10.1126/scirobotics.abc5044.

Was macht ein dritter Daumen mit dem Gehirn?

Die Menschen sind seit langem fasziniert von den Möglichkeiten, die sich durch Augmentierungen etwa eines zusätzlichen Körpergliedes ergeben, was auch eng mit den Fähigkeiten des Gehirns zusammenhängt, zu lernen, sich anzupassen und mit solchen Augmentationsgeräten zu interagieren. Kieliba et al. (2021) haben jüngst untersucht, ob eine erfolgreiche motorische Augmentation mit einem zusätzlichen Roboterdaumen möglich ist, und welche Auswirkungen dies auf die neuronale Repräsentation und Funktion der biologischen Hand hat.

ProbandInnen wurden über fünf Tage hinweg im Umgang mit einem zusätzlichen Roboterdaumen – dritter Daumen – trainiert, sowohl im Labor als auch im unstrukturierten täglichen Gebrauch. Man forderte die TeilnehmerInnen auf, normale bimanuelle Aufgaben nur mit der augmentierten Hand zu erledigen und untersuchten deren Fähigkeit, Hand-Roboter-Interaktionen zu entwickeln. Der Fokus lag dabei auf Aufgaben, bei denen eine Zusammenarbeit zwischen der Hand und dem technischen Zusatzfinger nötig war, etwa das Aufheben mehrerer Bälle oder Weingläser mit nur einer Hand. Das Training verbesserte die motorische Kontrolle des dritten Daumens, die Geschicklichkeit und die Hand-Roboter-Koordination, selbst wenn die kognitive Belastung erhöht war oder die Sicht verdeckt war, und führte auch zu einem erhöhten Gefühl der Verkörperung des dritten Daumens.

Um den Auswirkungen auf Gehirnfunktionen auf die Spur zu kommen, hat man vor und nach der Gewöhnung an das Gerät die Hirnaktivität der ProbandInnen mittels funktioneller Magnetresonanztomographie untersucht. Dabei gab es signifikante Veränderungen, wie die Hand, die mit dem dritten Daumen erweitert worden war, im sensomotorischen Cortex des Gehirns repräsentiert wurde. Eine Woche nach der Nutzungszeit waren die Veränderungen in der Gehirnaktivität allerdings wieder verschwunden, d. h., bei der kurzen Gewöhnungsphase von fünf Tagen waren die Effekte offenbar nicht von Dauer. Die Verwendung des dritten Daumens schwächte auch die natürlichen kinematischen Synergien der biologischen Hand. Darüber hinaus zeigte die Hirndekodierung einen leichten Rückgang der motorischen Repräsentation der augmentierten Hand nach dem Training, auch wenn der dritte Daumen nicht getragen wurde.

Video: https://www.wissenschaft.de/wp-content/uploads/k/i/kieliba9.mp4