Eine Studie der Hochschule Coburg zeigt, dass Menschen eine humanoide Form bei Robotern nicht immer als positiv empfinden. Untersucht wurde, welche Rolle die Vermenschlichung bei kooperativen Handbewegungen zwischen Mensch und Roboter spielt. Menschen neigen dazu, ein menschliches oder menschenähnliches Gegenüber zu imitieren, was auf die Aktivierung von Spiegelneuronen zurückzuführen ist, die beim Lernen durch Imitation eine wichtige Rolle spielen. Dies führt zu Bewegungsablenkungen bei der gemeinsamen Aufgabenbewältigung von Mensch und Roboter, so dass der Mensch aktiv gegen diese Ablenkungen arbeiten muss, was zu zusätzlichen Belastungen führt, wie in der Studie mit einem Roboterarm in menschenähnlicher Schulteraufhängung im Vergleich zur Tischaufhängung gezeigt wurde. Menschenähnlichkeit ist also nicht immer positiv zu bewerten, und der Grad der Menschenähnlichkeit muss im praktischen Einsatz von Robotern stets abgewogen werden, um eine Balance zwischen Intuitivität und Belastungsarmut zu finden.
Was soll ein Roboter im öffentlichen Raum dürfen?
Der öffentliche Raum bietet mit seinen Verkehrs- und Grünflächen sowie Innenbereichen, zum Beispiel Parks, Bahnhöfen oder Museen diverse Nutzungsmöglichkeiten. Er kann als Möglichkeitsraum verstanden werden, dessen Sinnhaftigkeit erst durch die Menschen, die sich darin aufhalten, konkret wird. So ist beispielsweise der Park für manche Menschen ein Ruhepol, für andere eine Sportanlage oder ein sozialer Treffpunkt. Dementsprechend fluide ist, was ein öffentlicher Raum ist und sein soll.
Die Interaktion zwischen Mensch und Roboter ist komplex und nicht immer leicht vorhersehbar. Aus ethischer Perspektive stellen sich viele Fragen: Wie soll ein Roboter auf verschiedene Verhaltensweisen von Menschen im öffentlichen Raum reagieren? Welche Formen der robotischen Unterstützungen sind wünschenswert, welche sind einer freien Entfaltung im öffentlichen Raum potenziell abträglich? Wie verändert der Einsatz eines Roboters unser Bild vom öffentlichen Raum – und wie kann diese Veränderung bereits in der Entwicklung gestaltet werden?
Diesen Fragen will das Forschungsprojekt „rokit“ nachgehen, und wird sich speziell mit ethischen Implikationen der Mensch-Roboter-Interaktion im öffentlichen Raum beschäftigen, dazu zählt beispielsweise die Interessenabwägung zwischen allen Beteiligten. Auf einer Meta-Ebene soll untersucht werden, was eine ethische Technikberatung kann, soll und muss. In diesem Zusammenhang ist die Frage nach Methoden einer integrierten Ethik interessant: Wie kann Ethik bereits im Entwicklungsprozess eingesetzt und Technologieentwicklung aktiv beeinflusst werden?
„Ziel des Projekts ‚rokit‘ ist es deshalb, interdisziplinäre Gestaltungsansätze sowie Test- und Prüfverfahren zu entwickeln, um einen verantwortungsvollen Einsatz von Robotern im öffentlichen Raum zu ermöglichen.
Verbundprojekt „rokit“: https://www.interaktive-technologien.de/projekte/rokit
Wahrnehmung der Umgebung durch Roboter
Eine präzise Wahrnehmung der Umgebung ist notwendig, damit ein Roboter sicher und effizient navigieren kann. Ein wichtiges Anwendungsfeld sind industrielle Umgebungen, ein sehr dynamisches Umfeld, besonders wenn der Einsatzort etwa ein Warenlager ist, das nicht von Beginn an für die Automation gedacht war. An der Universität in Örebro haben wir uns in der Forschung ganz bewusst für ein „semi-kontrolliertes Umfeld“ entschieden, in dem die Fahrzeuge langsamer als etwa Autos unterwegs sind und Änderungen eingeführt werden können, die dem Roboter Teilaufgaben erleichtern können. Hier lassen sich zudem Sicherheitswesten nutzen, die die Mitarbeitenden tragen und so zuverlässig zu erkennen sind – auch im Dunkeln. Wären wir direkt in den Straßenverkehr gegangen, hätten wir in dem gegebenen Umfeld zu viele Herausforderungen auf einmal gehabt.
Quelle
https://www.tum.de/aktuelles/alle-meldungen/pressemitteilungen/details/der-robotik-einen-weiteren-sinn-hinzufuegen (23-04-21)
EU-Projekt Sharework
Im EU-Projekt „Sharework“ entwickelte ein europäisches Konsortium aus sechs Forschungseinrichtungen, dreizehn Partnern und einer Normierungsinstanz neue Ansätze für die Zusammenarbeit von Mensch und Roboter. Die verschiedenen Software- und Hardwaremodule ermöglichten insbesondere auch Schwerlastrobotern wie Industrierobotern, mit Menschen zu interagieren, ohne dass physische Schutzbarrieren wie Zäune erforderlich seien.
Ziel war es, im Sinne einer effektiveren Zusammenarbeit vorhandene Barrieren in der Mensch-Roboter-Kollaboration zu überwinden, und zwar ohne Abstriche bei der Sicherheit in Kauf nehmen zu müssen. Das IWU fokussierte sich dabei auf übergreifende Sicherheitsaspekte.
Das Ergebnis ist nun ein modulares System, das in der Lage ist, die Umgebung eines Roboters und menschliche Handlungen durch „Wissen“ und Sensoren, Vorhersagen über zukünftige Zustände, „intelligente“ Datenverarbeitung, Augmented Reality sowie Gesten- und Spracherkennungsfunktionen zu verstehen.
Die entwickelten Module wurden in der Automobil-, Bahn-, Metall- und Investitionsgüterindustrie bereits mit Erfolg erprobt. Ein Einsatz ist jedoch auch in anderen industriellen Montage- und Produktionsprozessen denkbar, um die Effizienz von Fertigungsprozessen zu verbessern.
Empathischen Roboter?
Empathische Roboter sind Geräte, die in der Lage sind, menschliche Emotionen zu erkennen und angemessen darauf zu reagieren. Die Idee ist, dass diese Roboter eine bessere Interaktion mit Menschen ermöglichen, indem sie ihre Bedürfnisse und Emotionen verstehen und darauf reagieren können.
Allerdings muss man dazu sagen, dass die Technologie für empathische Roboter noch im Entwicklungsstadium ist und es momentan eher Prototypen und Forschungsprojekte als einsatzreife Produkte gibt. Es gibt jedoch bereits einige Anwendungen, bei denen empathische Roboter in Bereichen wie Pflege und Therapie eingesetzt werden, um die Interaktion mit Menschen zu verbessern.
Der Roboterhersteller Fanuc etwa unterstützt die Entwicklung eines einfühlsamen Roboters für den Einsatz in der Industrie. Das mit EU-Mitteln geförderte Forschungsprojekt „Fluently“ will eine Roboterplattform schaffen, die eine soziale Zusammenarbeit zwischen Mensch und Maschine ermöglicht.
Das auf drei Jahre angelegte Projekt unter der Leitung von Roboverse Reply verfolgt zwei Ziele: die Entwicklung eines auf Künstlicher Intelligenz basierenden, tragbaren Geräts für Industriearbeiter und Roboter sowie die Entwicklung eines speziellen Schulungszentrums mit der Bezeichnung „The Fluently RoboGym“, in dem Fabrikarbeiter und Roboter eine reibungslose Interaktion im Industrieprozess trainieren können.
Eine gute Zusammenarbeit zwischen Mensch und Maschine ist besonders wichtig in modernen intelligenten Fabriken, in denen sich Produktionsvolumen und Produkte ständig ändern und in denen mobile Transportsysteme und Roboter neben statischen Arbeitsplätzen stehen.
Die „Fluently“-Forscher konzentrieren ihre Entwicklungsarbeit auf drei für die europäische Wirtschaft wichtige Wertschöpfungsketten: die Demontage und das Recycling von Batterien für E-Bikes und Elektrofahrzeuge, Prüf- und Montageprozesse in der Luft- und Raumfahrtindustrie sowie die Aufarbeitung hochkomplexer Industrieteile mittels Laserbearbeitung.
Roboter könnten in Zukunft die Arbeitnehmer zumindest teilweise von der mit diesen Prozessen verbundenen Belastung befreien sowie einige der zeitaufwendigeren Aufgaben übernehmen. Dies würde helfen, einerseits die Kompetenzen und Erfahrungen der Arbeitnehmer zu erhalten und andererseits die Möglichkeiten ihrer Weiterqualifizierung erhöhen.
Literatur
https://www.bigdata-insider.de/fluently-forscht-am-empathischen-roboter-a-f6225a06edc3fc848bd496dc2ba50772/ (23-02-14)
Es ist noch ein langer Weg …
Am Forschungszentrum Jülich hat man ein neuronales Netzwerk mit 300 Millionen Synapsen in bislang unerreichter Geschwindigkeit simuliert, wobei es gelang, die Netzwerk-Aktivität viermal schneller als in Echtzeit zu berechnen. Für ihren Rekord nutzte man einen Prototyp des „neuronalen“ IBM-Supercomputers INC-3000.
Es handelt sich um ein Netzwerk, das von seiner Größe her etwa 1 Kubikmillimeter der Hirnrinde entspricht. Es besteht aus 80.000 Neuronen, die über 300 Millionen Synapsen miteinander verbunden sind. Ein solches Netzwerk hat noch keine Lernfunktion. Es soll vielmehr eine realitätsnahe Vernetzung abbilden und erzeugt gerade genügend Stimulus, um zu biorealistischen Aktivitätsmustern zu kommen. Das Netz beschäftigt sich praktisch selbst – man spricht hier auch von einem rekurrenten Netz, das mit den Aktivitätsmustern, die es produziert, wieder eigene Aktivitätsmuster hervorruft. Dieses Netzwerk ist sehr gut untersucht und eignet sich daher, um die Leistungsfähigkeit von Computerarchitekturen hinsichtlich der Simulation von neuronalen Netzen miteinander zu vergleichen. Allerdings umfasst dieses Netzwerk nur etwa ein Millionstel eines menschlichen Gehirns, und ist damit immer noch viel zu klein, um zu verlässlichen Aussagen über das Gehirn an sich zu kommen.
Biologische Gehirne sind vollkommen anders aufgebaut als die Computersysteme, wie sie beispielsweise im High-Performance-Computing (HPC) eingesetzt werden. Während in klassischen Supercomputern nur verhältnismäßig wenige, hochgetaktete Prozessoren unter strikter Trennung von Speicher- und Prozessoreinheiten Berechnungen durchführen, ist ein Gehirn aus einer massiven Anzahl hochgradig vernetzten Neuronen aufgebaut. Jedes Neuron für sich arbeitet zwar extrem langsam und damit energiesparend, dennoch ist unser Gehirn extrem leistungsfähig, da die Nervenzellen vollständig parallel arbeiten. Zudem ist der Grad der Vernetzung im Gehirn extrem. 80 Prozent des Hirnvolumens werden allein von Verbindungen zwischen Nervenzellen belegt. Die eigentlichen Neurone machen dagegen nur 16 bis 20 Prozent aus.
Ein weiteres grundlegendes Problem aller konventionellen Computerarchitekturen ist die strikte Trennung von Prozessor und Speicher. Biologische Nervenzellen dagegen können Informationen sowohl verarbeiten als auch speichern. In herkömmlichen Computersystemen müssen alle Informationen über eine enge Schnittstelle vom Prozessor zu einem Speichersystem transportiert werden, das ist der sogenannte Von-Neumann-Flaschenhals. Dies führt zu einer gewissen Verzögerung, Latenz genannt. Diese Latenz wird sich auch mit neuen Speichertechnologien nicht signifikant verbessern und bestimmt die Simulationsgeschwindigkeit maßgeblich, wie wir in unseren Untersuchungen nachweisen konnten. Die Kommunikation zwischen Nervenzellen ist zudem extrem energiesparend und geschieht fast ausschließlich über extrem spärliche neuronale Aktivitätsmuster. Übersetzt auf unsere Supercomputer bedeutet dies, dass man es ausschließlich mit sehr kurzen Datenpaketen zu tun hat. Die vorrangigen Computerstandards sind aber gerade für große Datenpakete optimiert. Auch bei der Kommunikation entstehen so für kurze Datenpakete große Latenzen.
Man nutze das INC-System von IBM vorrangig, weil sich damit unterschiedliche Schaltungen sehr flexibel herstellen lassen. FPGAs, Field Programmable Gate Arrays, enthalten frei programmierbare Logikbausteine mit eigenem Speicher und weiteren Hardware-Komponenten auf einem Chip. Weil der Speicher so nah an der Logik platziert ist, fallen die zuvor angesprochenen Speicher-Latenzen nicht ins Gewicht. Die Bausteine auf dem FPGA lassen sich außerdem beliebig umprogrammieren. Dies ist hilfreich, um beispielsweise verschiedene Architekturvarianten zu untersuchen. Da man die optimale Architektur und Schaltung im Vorfeld nicht immer eindeutig identifizieren kann, hilft die schnelle Rekonfigurierbarkeit, gute Lösungen herauszuarbeiten. So konnte man auch die optimale Schaltung finden, die den genannten Beschleunigungsfaktor ermöglichte. Derzeit werden in Simulationen noch sehr einfache Neuron- und Synapsenmodelle verwendet, die nur mit einer Handvoll mathematischer Gleichungen beschrieben werden können. Dieses Neuronenmodell ist aber mehr 120 Jahre alt. Es ist absehbar, dass eine realistischere Abbildung der Neuronendynamik und Lernvorgänge noch viel mehr Gleichungen benötigt, beispielsweise zur Beschreibung von Dendriten. Dabei handelt es sich um fein verzweigte Verästelungen, über die sich Nervenzellen untereinander verbinden. Heute weiß man: Diese Dendriten stellen keine passiven Leitungen dar und tragen aktiv zur Informationsverarbeitung bei. Schätzungsweise mehr als zwei Drittel der neuronalen Dynamik hängt davon ab. Diese dendritischen Strukturen finden heute noch gar keine Berücksichtigung. Zukünftig wird man also auch deutlich mehr Recheneinheiten benötigen, als heute in einem Prozessor zur Verfügung stehen, um die Vielzahl der gekoppelten Gleichungen in passabler Zeit zu lösen.
Grundsätzlich sind die Systeme umso schneller, je direkter sie ein neuronales Netzwerk auf Hardware-Ebene nachbilden. Das BrainScaleS-System aus Heidelberg besteht aus mehreren Wafern. Die Neuronen sind mitsamt ihren Verbindungen direkt auf dem Chip angelegt. Dieses System ist naturgemäß sehr schnell. Die Größe des Netzwerks, das sich auf diese Weise darstellen lässt, ist jedoch begrenzt. 300 Millionen Synapsen, wie wir sie simuliert haben, wären damit nicht machbar. Das Problem einer solchen Spezialarchitektur ist außerdem, dass man nachher unter Umständen nicht flexibel genug ist, um neue Features einzubauen.
Das britische System SpiNNaker gleicht dagegen eher einem herkömmlichen Superrechner. Es handelt sich hier um einen massiv-parallelen Computer, der über mehrere Hunderttausend ARM-Prozessoren, die eigentlich für Mobilfunkanwendungen optimiert sind, und ein besonderes Kommunikationsnetzwerk verfügt. Da hier ein zentraler Prozessor und ein davon abgetrennter Speicher vorliegen, läuft man wie bei allen herkömmlichen Rechnern automatisch in die Problematik mit der Latenz, also des verzögerten Transports von Informationen.
Grafikprozessoren (GPUs) werden derzeit vor allem für klassische neuronale Netze eingesetzt, eine realitätsgetreue Abbildung biologischer Netzwerke steht hier meist nicht im Vordergrund. Dabei geht es vor allem um Deep-Learning-Algorithmen. In GPU-basierten Systemen ist der Grad der Parallelität extrem hoch, das heißt, sie verfügen über vergleichsweise viele Recheneinheiten. Doch auch hier müssen Daten zwischen Prozessor und Speicher hin und her transportiert werden, was letztlich wieder das Problem mit der Latenz betont. Verglichen mit dem biologischen Gehirn sind GPUs außerdem immer noch extreme Energiefresser. Ein menschliches Gehirn hat eine Leistung von etwa 20 Watt, typische Serverfarmen mit GPU-basierten Rechenknoten kommen dagegen auf mehrere Mega-Watt, benötigen im Betrieb also das Hunderttausendfache an Energie.
Im Projekt „Advanced Computing Architectures (ACA): towards multi-scale natural-density Neuromorphic Computing” arbeitet man daran, Konzepte zu benennen, die man braucht, um große Netzwerke, die sehr komplex sind, berechnen zu können. Das wäre dann etwa ein Netzwerk mit 1 Milliarde Neurone, das so groß ist wie das Gehirn eines Säugetieres. In dem Projekt kooperiert man mit der RWTH Aachen, der University of Manchester und der Universität Heidelberg, die teils auch eigene neuromorphe Ansätze verfolgen. Übergeordnetes Ziel ist der Bau eines Computersystems, das es ermöglicht, Lernprozesse im Zeitraffer zu untersuchen. Das IBM INC-3000-System kam im Rahmen der Machbarkeitsstudie zum Einsatz und hat gezeigt, dass selbst bei Verwendung modernster Technologien dem erzielbaren Leistungsgewinn grundsätzlich Grenzen gesetzt sind. Neue, unkonventionelle Architekturen, Schaltungs- und Speicherkonzepte sind hier unumgänglich. Hierbei müssen Konzepte der Speicherarchitektur, der Kommunikation und der numerischen Berechnungseinheiten völlig neu elaboriert werden. Langfristiges Ziel ist die Entwicklung einer eigenen Architektur, die speziell auf diese Art von Simulationen zugeschnitten ist. Eine solche neuromorphe Beschleuniger-Architektur könnte dann idealerweise angekoppelt werden an die Jülicher Supercomputing-Infrastruktur. Man redet hier über einen großen Zeithorizont von 15 bis 20 Jahren.
Literatur
Arne Heittmann, Georgia Psychou, Guido Trensch, Charles E. Cox, Winfried W. Wilcke, Markus Diesmann and Tobias G. Noll (2022). Simulating the Cortical Microcircuit Significantly Faster Than Real Time on the IBM INC-3000 Neural Supercomputer, Front. Neurosci. , doi:10.3389/fnins.2021.728460
Neandertalergehirn für Roboter
Da der Paläogenetiker Svante Pääbo 2009 gemeinsam mit seinem Team das Neandertaler-Genom entschlüsselte, züchtet er nun Mini-Neandertalergehirne, die er in Roboter verpflanzen will. Von der Gehirnmasse der Neandertaler ist heute nichts mehr erhalten, allerdings gibt es im Labor des Institute of Molecular Biotechnology in Wien bereits stecknadelkopfgroße Abkömmlinge des urzeitlichen Vorbilds, die mit der Genschere CRISPR/Cas9 und natürlich dem Wissen über die alte DNA hergestellt wurden.
Die Wissenschaftler setzten dann die Neandertaler-Variante des Gens NOVA1 in menschliche Stammzellen ein, wobei sie die Großhirnrinde der Neandertaler in einer winzig kleinernVersion wachsen ließen, wobei die Organoide wie Popcorn wirken, während die menschlichen Gehirne im Gegensatz eher eine Kugelform besitzen. Außerdem fanden sich im Inneren Strukturen, die sich auch bei Menschen zeigen, die mit neurologischen Defekten zu kämpfen haben. Wenn diese Organoide eines Tages perfek« sind, möchten die Forscher sie in krabbenähnliche Roboter verpflanzen, in der Hoffnung, dass die kleinen Gehirne die Maschinen steuern lernen.
Literatur
https://www.trendsderzukunft.de/forscher-zuechten-neandertaler-gehirne-um-sie-in-roboter-zu-pflanzen/ (21-11-28)
Roboter als Trainer im Sport
Der ORF Niederösterreich berichtet im Oktober 2021, dass Roboter als Trainer bei Vereinen aushilft, und zwar untersuchen die Sportunion Niederösterreich und das Austrian Institute of Technology (AIT) im Rahmen eines Forschungsprojekts den Einsatz von Robotern in Vereinstrainings. Untersucht werden soll nicht nur, inwieweit Roboter das Training in verschiedenen Sportarten unterstützen können, sondern auch, ob ihr Einsatz die Motivation der Mitglieder erhöht. Hinzu kommt, dass es Engpässe im Trainerbereich gibt. In den kommenden Wochen wird der Roboter bei verschiedenen Vereinen in Niederösterreich getestet – vom Leistungssport über den Kinder- bis hin zum Gesundheitsbereich. Erste Station ist Handball-Zweitligist St. Pölten, bei dem der Roboter unter anderem beim Krafttraining zum Einsatz, wo er die Übungen nicht nur aufzeichnet, sondern den Spielern auch zeigt, was sie besser machen können. Beim Handballtraining selbst übernimmt der Roboter Aufgaben des Übungsleiters. Die Spieler zeigen sich danach begeistert. Vor allem im Bereich des Kinder- und Jugendsports erhofft man sich viele positive Rückmeldungen.
Quelle
https://noe.orf.at/stories/3125398/
Das Problem des Antropomorphismus bei der Mensch-Roboter-Interaktion
Es wird allgemein angenommen, dass die Anwendung anthropomorpher Designmerkmale die Mensch-Roboter-Interaktion erleichtert, wobei eine beträchtliche Anzahl von Studienergebnissen jedoch in die entgegengesetzte Richtung deutet. Es gibt derzeit keine umfassende gemeinsame Grundlage für die Umstände, unter denen Anthropomorphismus die Interaktion mit Robotern fördert. Roesler et al. 2021) wollen mit dieser Meta-Analyse diese Lücke schließen. Insgesamt wurden 4856 Abstracts gescannt, wobei nach einer umfangreichen Auswertung 78 Studien mit rund 6000 Teilnehmern und 187 Effektgrößen in diese Meta-Analyse aufgenommen wurden. Die Mehrzahl der Studien befasste sich mit Auswirkungen auf die Wahrnehmung von Robotern. Darüber hinaus wurden aber auch Effekte auf einstellungsbezogene, affektive und verhaltensbezogene Aspekte untersucht. Insgesamt wurde eine mittlere positive Effektgröße gefunden, was auf einen positiven Effekt von anthropomorphen Designmerkmalen auf menschenbezogene Ergebnisse hinweist. Eine genauere Betrachtung der untersten Variablenebene ergab jedoch keinen positiven Effekt auf die wahrgenommene Sicherheit, das Einfühlungsvermögen und die Aufgabenleistung. Darüber hinaus deutet die Analyse darauf hin, dass positive Effekte von Anthropomorphismus stark von verschiedenen Moderatoren abhängen, denn etwa war der Anthropomorphismus im Gegensatz zu anderen Anwendungsbereichen eine ständige Erleichterung der sozialen Mensch-Roboter-Interaktion.
Insgesamt zeigte sich durchaus ein positiver Effekt von Anthropomorphismus auf die Wahrnehmung, die Einstellungen, und die affektiven und verhaltensbezogenen Reaktionen von Menschen in ihrer Interaktion mit Robotern, doch spezifischere Teilanalysen des Datensatzes zeigten aber, dass Anthropomorphismus bei Robotern keineswegs ein Universalmittel zur Förderung der Mensch-Roboter-Interaktion darstellt. So konnten keine Belege für positive Effekte von Anthropomorphismus auf die wahrgenommene Sicherheit von Robotern und die Aufgabenleistung bei gemeinsamen Aufgaben gefunden werden, die gerade in Bereichen, in denen Roboter als Werkzeuge benutzt werden, bedeutsam sind, zum Beispiel in Service oder Industrie. Besonders in Bezug auf das Aussehen und die Beschreibung von Robotern haben auch eigene Untersuchungen der ForscherInnen gezeigt, dass eine Ausstattung von Robotern mit menschenähnlichen Merkmalen in aufgabenbezogenen und industriellen Bereichen auch negative Konsequenzen haben kann. Dort kann Anthropomorphismus etwa den Werkzeugcharakter von Robotern verschleiern und damit zu einem geringeren Vertrauen führen.
In Bereichen, in denen Roboter für die Erledigung kollektiver Aufgaben benutzt werden, werden anthropomorphen Robotern als „intelligent“ oder „sympathisch“ erlebt, was aber nicht Hand in Hand mit einer tatsächlich besseren Leistung in der Zusammenarbeit mit Robotern gehen muss. Eine bedeutende Rolle spielt auch die Art der Implementierung anthropomorpher Elemente, denn diese Merkmale zeigen vor allem dann positive Effekte, wenn sie möglichst sinnhaft auf die Aufgabe bezogen gestaltet werden, etwa eine Augenbewegung, die signalisiert, was der Roboter gerade verarbeitet. Das ist besonders für die Gestaltung von Robotern für industrielle Anwendungen und den Servicebereich interessant, denn dort wird die Bedeutung von oberflächlicher Anthropomorphisierung aktuell scheinbar noch überschätzt.
Die Ergebnisse dieser Analyse geben einigen Aufschluss darüber, wie Designmerkmale genutzt werden können, um die Qualität sie Mensch-Roboter-Interaktion zu verbessern.
Literatur
Roesler, E., Manzey, D. & Onnasch, L. (2021). A meta-analysis on the effectiveness of anthropomorphism in human-robot interaction. Science Robotics, doi: 10.1126/scirobotics.abj5425.