Was können Menschen von künstlicher Intelligenz über sich selbst lernen?

Menschen können von Künstlicher Intelligenz (KI) eine Vielzahl an Dingen über sich selbst lernen. Hier sind einige Beispiele:

Verhaltensmuster erkennen: KI kann große Datenmengen analysieren und Muster und Trends identifizieren, die für Menschen schwer zu erkennen sein können. Durch die Anwendung von KI können Menschen ihr eigenes Verhalten besser verstehen, wie beispielsweise Einkaufsgewohnheiten, Online-Aktivitäten oder sogar Gesundheitsdaten.

Entscheidungsfindung verbessern: KI-Algorithmen können Menschen dabei helfen, bessere Entscheidungen zu treffen, indem sie komplexe Daten analysieren und relevante Informationen liefern. Diese Erkenntnisse können Menschen dabei unterstützen, objektiver zu denken und mögliche Vorurteile oder emotionale Einflüsse zu reduzieren.

Effizienzsteigerung: KI kann Prozesse automatisieren und optimieren, was Menschen dabei hilft, effizienter zu arbeiten. Durch den Einsatz von KI können repetitive Aufgaben automatisiert werden, sodass sich Menschen auf kreativere und anspruchsvollere Aufgaben konzentrieren können.

Fehlererkennung und -vermeidung: KI-Systeme können große Datenmengen analysieren und ungewöhnliche Muster oder Anomalien erkennen, die auf Fehler oder Probleme hinweisen könnten. Dadurch können Menschen ihre eigenen Fehlerquellen besser verstehen und proaktiv Maßnahmen ergreifen, um diese zu vermeiden.

Sprachverarbeitung und Kommunikation: KI hat Fortschritte in der natürlichen Sprachverarbeitung gemacht, was Menschen dabei helfen kann, ihre eigene Kommunikation zu verbessern. Durch den Umgang mit KI-basierten Sprachassistenten oder Chatbots können Menschen ihre Sprachfähigkeiten, ihre Präzision und ihre Artikulationsfähigkeiten verbessern.

Selbstreflexion: Der Einsatz von KI kann Menschen dazu ermutigen, über sich selbst nachzudenken und ihre eigenen Überzeugungen, Vorlieben und Verhaltensweisen zu hinterfragen. Indem sie die Ergebnisse von KI-Analysen über sich selbst betrachten, können Menschen neue Perspektiven gewinnen und ihr Selbstverständnis erweitern.

Es ist wichtig zu beachten, dass KI zwar wertvolle Einblicke und Unterstützung bieten kann, aber sie hat auch ihre Grenzen, denn menschliche Erfahrungen, Intuition und ethische Bewertungen bleiben weiterhin entscheidend, um die Ergebnisse der KI zu interpretieren und angemessene Entscheidungen zu treffen.

Können Maschinen Empathie lernen?

Empathie bezieht sich auf die Fähigkeit, die Emotionen, Gedanken und Gefühle anderer Menschen zu erkennen, zu verstehen und mit ihnen mitzufühlen, wobei es sich um eine komplexe kognitive Fähigkeit handelt, die bei Menschen auf biologischen und sozialen Grundlagen beruht. In Bezug auf Maschinen und künstliche Intelligenz (KI) ist Empathie ein noch komplexeres Thema, denn aktuelle KI-Systeme, wie Chatbots oder Spracherkennungssysteme, sind nicht in der Lage, echte Empathie zu empfinden, da sie keine eigenen Emotionen haben. Sie sind aber darauf programmiert, bestimmte Aufgaben zu erfüllen und auf bestimmte Eingaben zu reagieren, aber sie haben kein eigenes emotionales Verständnis oder Bewusstsein, auch wenn es manchmal scheint, dass solche Systeme Empathie oder Emotionen zeigen.

Jedoch gibt es Forschungsbereiche, in denen versucht wird, maschinelles Lernen und KI-Systeme mit einer gewissen Form von Empathie auszustatten, d. h., es geht dabei um die Entwicklung von Systemen, die menschliche Emotionen erkennen und darauf angemessen reagieren, um eine empathische Interaktion zu ermöglichen. Diese Ansätze basieren in der Regel auf der Verwendung von Algorithmen und Techniken des maschinellen Lernens, um Emotionen aus Gesichtsausdrücken, Körperhaltung, Sprachintonation und anderen Signalen zu erkennen. Diese Art von empathischen“Systemen kann zwar bestimmte Verhaltensweisen zeigen, die als empathisch angesehen werden könnten, aber sie besitzen kein eigenes emotionales Erleben, denn das wird immer Lebewesen viele Menschen vorbehalten bleiben. Es handelt sich also immer nur um eine Simulation von Empathie, die aufgrund der Analyse von Daten und Mustern erzeugt wird.

Auch ist die Frage, ob Maschinen jemals echte Empathie entwickeln können, eher ein Thema der philosophischen und wissenschaftlichen Debatte, wobei es unterschiedliche Ansichten dazu gibt, ob Empathie nur auf biologischer Grundlage existiert oder ob sie auch auf andere Arten von Systemen übertragen werden kann. Es bleibt abzuwarten, wie sich die Forschung in diesem Bereich entwickelt und ob es in Zukunft Fortschritte geben wird, die eine authentische Form von Empathie bei Maschinen ermöglichen, was aber wohl auf der Basis von grundsätzlichen Überlegungen nur eine Illusion sein kann, wobei solche Illusionen zutiefst menschlich sind 😉

Wann Roboter sympathisch sind …

Wenn Roboter ihrem menschlichen Gegenüber sehr ähnlich sehen, führt dies bei Menschen eher zu unguten Gefühlen (uncanny valley), denn besser läuft es, wenn Roboter menschliche Emotionen über ihre Sensoren erkennen können und angemessen auf sie reagieren, etwa durch ein fröhliches Tamagotchi-Piepsen. Eine neue Studie zeigte nun, dass Menschen mehr Empathie für Roboter empfinden, wenn diese von ihren privaten Gefühlen und Gedanken berichten. Probanden verbrachten in einer Studie bei einer virtuellen Kaffeepause diese Zeit abwechselnd mit einem menschenähnlichen Avatar und einem anthropomorphen Roboter auf dem Bildschirm. Dabei zeigte die Auswertung standardisierter Fragebögen nach dem Experiment, dass die Probanden mehr Empathie für die Roboter aufbrachten, wenn diese über ihre Probleme am Arbeitsplatz referierten, etwa: «Ich bin dankbar, mit dir zu reden, schliesslich gibt es auch ein paar Leute hier, die mich nicht akzeptieren.» Small Talk dagegen verfing nicht, denn wenn die künstlichen Kollegen bloss über das schöne Wetter redeten, hatte das kaum einen sympathiesteigernden Effekt.

Literatur

https://www.tagesanzeiger.ch/wie-roboter-sympathisch-werden-412159655059 (23-05-24)

Hackroboter Dino

Eine Gärtnerei in Augsburg setzt seit 2021 den Hackroboter Dino bei der Unkrautbekämpfung ein, um ihre Produktion umweltverträglicher zu gestalten. Dino gehört zu einer neuen Generation voll elektrischer und autonomer Agrarroboter , die per Satellit gesteuert auf einer vorgegebenen Route fahren und das Unkraut auf natürlichem Weg rund um die Nutzpflanze entfernen. Die Erweiterung um das In-Row-Hackwerkzeug befähigt die Technik, auch zwischen den Reihen zu hacken, oder die Erweiterung des Einsatzgebietes, etwa auf den Zuckerrübenanbau.

Nach einem Bericht der Baywa AG können Agrarroboter auch in der Landwirtschaft wertvolle Dienste leisten und Mitarbeiter entlasten und auch dafür sorgen, dass es nachhaltig und regional erzeugte Nahrungsmittel zu bezahlbaren Preisen gibt. Schon heute säen, hacken und ernten autonom fahrende Agrarroboter beispielsweise Gemüse, wobei d die Automatisierung eine Antwort auf den wachsenden Personalschwund darstellt. Ein Pflückroboter im Erdbeerfeld ist um die Hälfte schneller als der Mensch, der sich wiederum die Arbeit, die auf den Rücken geht, sparen kann, und ein Hackroboter kann je nach Größe bis zu zwei Saisonkräfte ersetzen.

Quelle

www.baywa.de (23-05-11)

Fußballspielende Roboter

Nach einem Bericht haben Forscher von Google DeepMind humanoiden Robotern das Fußballspielen beigebracht, und zwar mithilfe von Deep Reinforcement Learning, bei dem diese lernten, wie man Tore schießt und eine Eins-gegen-Eins-Verteidigung aufbaut. Auf der Hardware-Seite verwendete man Robotis OP3, kleine zweibeinige Roboter mit 20 Gelenken, für die KI verwendeten man das Deep Reinforcement Learning, also das Lernen durch tiefe Verstärkung. Für das Sehen in der realen Welt setzte man auf Neural Radiance Field, eine KI, die aus wenigen zweidimensionalen Bildern eine 3D-Darstellung der Szene erstellen kann. Die Spiele bestehen derzeit aus Eins-gegen-Eins-Spielen auf einem vier mal fünf Meter großen Spielfeld, wobei die Roboter die Aufgabe haben, ein Tor zu schießen und gleichzeitig den anderen am Torschuss zu hindern. Dafür mussten sie Verhaltensweisen wie Laufen, Drehen, Seitwärtsschritt, Kicken, Passen, Aufstehen nach einem Sturz oder Interaktion mit einem Objekt erlernen.

Literatur

https://www.futura-sciences.com/de/diese-humanoid-roboter-liefern-beim-fussball-hoechstleistungen-ab-sie-dribbeln-und-schiessen-wie-ein-mensch_13374/ (23-05-10)

Begriffsklärungen: VR, MR, XR & AR

Mixed Reality (MR) ist eine Technologie, die die reale Welt mit der virtuellen Welt kombiniert, um eine immersive Erfahrung zu schaffen, die Elemente beider Welten in Echtzeit zusammenbringt. Im Gegensatz zu Virtual Reality (VR), bei der die Nutzer in eine vollständig virtuelle Welt eintauchen, oder Augmented Reality (AR), bei der virtuelle Objekte in die reale Welt eingefügt werden, ermöglicht MR den Nutzern die Interaktion mit virtuellen Objekten in der realen Welt und umgekehrt. Diese Technologie nutzt fortschrittliche Sensoren und Kameras, um die Umgebung des Nutzers zu erfassen und virtuelle Objekte darauf zu projizieren. MR kann in verschiedenen Bereichen wie Spiele, Bildung, Architektur, Gesundheitswesen und Unterhaltung eingesetzt werden.

Extended Realität (XR) ist ein Sammelbegriff, der die virtuelle Realität (VR), die erweiterte Realität (AR) und die gemischte Realität (MR) umfasst. XR geht also über die Grenzen einer einzelnen Realität hinaus und schafft ein nahtloses Erlebnis, das Elemente aus der realen und der virtuellen Welt miteinander verbindet. XR-Technologien werden durch Headsets, Kameras, Sensoren und andere Geräte ermöglicht, die dem Nutzer ein immersives Erlebnis bieten. Während VR die Benutzer in eine vollständig virtuelle Welt eintauchen lässt und AR virtuelle Objekte in die reale Welt einfügt, ermöglicht MR den Benutzern die Interaktion mit virtuellen Objekten in der realen Welt. XR-Anwendungen sind in verschiedenen Bereichen wie Unterhaltung, Bildung, Gesundheitswesen, Architektur und anderen Branchen zu finden. Sie bieten den Nutzern eine einzigartige Möglichkeit, in virtuelle Welten einzutauchen oder reale Welten mit digitalen Inhalten anzureichern.

Augmented Reality (AR) ist eine Technologie, bei der virtuelle Objekte in die reale Welt eingefügt werden, wodurch ein erweitertes Erlebnis entsteht. Im Gegensatz zur virtuellen Realität (VR), bei der die Nutzer in eine völlig virtuelle Welt eintauchen, können sie mit AR die reale Welt sehen und gleichzeitig digitale Inhalte wie 3D-Objekte, Text oder Bilder hinzufügen. Die AR-Technologie wird durch Smartphones, Tablets, Smart Glasses oder andere AR-fähige Geräte ermöglicht. Die Geräte erfassen die Umgebung des Nutzers und fügen dann virtuelle Inhalte zu dem Bild hinzu, das der Nutzer durch das Gerät sieht. AR-Anwendungen können in verschiedenen Bereichen wie Unterhaltung, Bildung, Gesundheitswesen und Werbung eingesetzt werden. Ein bekanntes Beispiel für AR ist die App Pokemon GO, bei der die Spieler ihre Umgebung mit ihrem Smartphone scannen und Pokemon in der realen Welt fangen können. Ein anderes Beispiel ist die IKEA-App, mit der Kunden virtuell Möbel in ihrer eigenen Wohnung ausprobieren können, um zu sehen, wie sie aussehen und passen.

Die virtuelle Realität (VR) ist eine Technologie, die es den Nutzern ermöglicht, in eine vollständig virtuelle Welt einzutauchen und ein intensives Erlebnis zu haben. VR wird durch spezielle Headsets ermöglicht, die dem Benutzer ein visuelles und oft auch akustisches Erlebnis bieten, das ihn in eine andere Realität versetzt. Das VR-Headset kann entweder per Kabel oder drahtlos mit einem Computer, einer Konsole oder einem Smartphone verbunden werden. Für das visuelle Erlebnis sorgt ein Display im Headset, das ein stereoskopisches 3D-Bild erzeugt, während das Audioerlebnis über eingebaute Lautsprecher oder Kopfhörer vermittelt wird. Die Benutzer können in der VR-Umgebung interagieren und in vielen Fällen auch die Umgebung beeinflussen. VR-Anwendungen können in verschiedenen Bereichen wie Unterhaltung, Bildung, Gesundheitswesen, Architektur und anderen Branchen eingesetzt werden. Ein bekanntes Beispiel für VR sind die VR-Versionen von Videospielen, bei denen die Benutzer in die Spielwelt eintauchen und mit ihr interagieren können. Ein weiteres Beispiel ist der Einsatz von VR in der Bildung, wo Schüler eine virtuelle Reise durch historische Orte unternehmen oder komplexe wissenschaftliche Konzepte auf visuell ansprechende Weise erleben können.

Add-on-Robotik in Schulen

In Bezug auf den Unterricht in Schulen gibt es verschiedene Möglichkeiten, wie Add-on-Robotik eingesetzt werden kann, um Schülerinnen und Schülern eine praxisnahe Erfahrung in der Robotik zu vermitteln. Eine Möglichkeit ist der Einsatz von Bausätzen oder Kits, die es den Schülern ermöglichen, Roboter zu bauen und zu programmieren. Diese Kits können verschiedene Hardware-Komponenten enthalten, wie Motoren, Sensoren und Steuerplatinen, sowie Software-Tools zum Programmieren des Roboters. Durch die Arbeit mit diesen Kits können die Schülerinnen und Schüler grundlegende Konzepte der Robotik und Programmierung erlernen und ihr Verständnis durch praktische Anwendungen vertiefen. Eine andere Möglichkeit ist der Einsatz von spezieller Software, die es den Schülern ermöglicht, virtuelle Roboter zu programmieren und zu testen. Diese Software kann verschiedene Funktionen enthalten, wie z.B. eine grafische Benutzeroberfläche, die es den Schülern erleichtert, den Code zu schreiben, sowie Simulationstools, die es den Schülern ermöglichen, ihre Programme zu testen und zu optimieren. Zusätzlich können auch externe Experten oder Fachleute in die Schulen eingeladen werden, um Workshops oder Vorträge zu halten und den Schülern eine breitere Perspektive auf die Anwendung von Robotik in der realen Welt zu geben. Auf diese Weise können die Schülerinnen und Schüler auch inspiriert werden, ihr Interesse an Robotik und Technologie zu vertiefen und möglicherweise eine Karriere in diesem Bereich anzustreben.

Mittlerweile gibt es an sehr vielen Schulen das Fach Robotik, allerdings nicht verpflichtend. „Robotik ist kein fester Teil des Schulalltags, sondern eine Art Add-on. Es ist nicht verpflichtend, sondern zusätzlich“, sagt Nicholas Dostal, Mitarbeiter des BBZ-Mitte. „Es ist auch keine Ausbildung, sondern eher ein Seminar, welches wir auch anbieten. Trotzdem wäre es gut, einen solchen Kurs im Lebenslauf zu erwähnen, denn für manche Berufe wie Elektro, -Metall- und Fahrzeugtechnik braucht man Robotik. Durch Robotik bekommt man außerdem einen Einblick in Technologien, die es immer häufiger geben wird. Es gibt jetzt schon überall Roboter und es werden in Zukunft immer mehr. Und da kann es nicht schaden, sich mit ihnen auszukennen. Jeder, der Spaß und Lust am Arbeiten mit Robotern hat, sollte, das auf jeden Fall ausprobieren.“

In manchen Schulen werden Roboter jetzt schon eingesetzt. Ein Beispiel dafür sind LEGO-Roboter, die inzwischen immer häufiger im Fach Informatik zum Einsatz kommen. In verschiedenen Schulen gibt es sogar schon humanoide Roboter, die mit den Heranwachsenden interagieren können. Beispielsweise durch die Analyse von Mimik und Gestik der Kinder oder auch durch Sprechen mit ihnen. Natürlich haben nicht alle Roboter dieselben Fähigkeiten, weshalb mehrere Arten eingesetzt werden können – zum Beispiel Pepper. Pepper ist ein humanoider Roboter, der in der Lage ist, die Mimik und Gestik von Menschen zu analysieren und auf diese zu reagieren. Ein weiteres Beispiel für Roboter im Unterricht sind Nao-Roboter. Diese Roboter können sehen, sprechen, hören, sich bewegen und tasten. Somit können die Heranwachsenden mit ihnen interagieren.

Literatur

https://m.osthessen-news.de/n11744440/roboter-als-lehrer-die-revolution-an-den-schulen.html (23-05-08)

Museum für Robotik und Mobilität

Das Deutsches Museum Bonn eröffnet neuen Erlebnisraum zu Robotik und Mobilität, wobei das Leitexponat des neuen Ausstellungsbereichs der Forschungsroboter RHINO der Universität Bonn ist, der in den 1990er Jahren als interaktiver Museums-Guide seine Runden durch das Deutsche Museum Bonn drehte. RHINO ist ein Stück Wissenschaftsgeschichte und legte wesentliche Grundlagen für die Entwicklung des autonomen Fahrens. Wie weit die Entwicklung des autonomen Fahrens seit RHINO´s Zeiten vorangeschritten ist, veranschaulicht ein futuristischer Fahrsimulator, der die technischen Grundlagen und Rahmenbedingungen des Einsatzes von Künstlicher Intelligenz beim autonomen Fahren erlebbar macht. Mit dem Roboterhund GO1 und dem Laufroboter LAURON IVc halten zwei potenzielle Publikumslieblinge Einzug in die Räume des Deutschen Museums Bonn, die zeigen, wie Roboter mit Hilfe Künstlicher Intelligenz das Laufen lernten. Als ”Gaststar“ wird der weltweit erste kommerziell erhältliche kognitive Roboter MAiRA von NEURA Robotics aus Metzingen an den Eröffnungstagen den neuen Erlebnisraum bereichern, wobei kollaborative Roboter, also Roboter die direkt mit Menschen zusammenarbeiten können, eine der vielversprechendsten aktuellen Entwicklungen in der Robotik sind. Damit die Zusammenarbeit gelingt, muss der Roboter sein menschliches Gegenüber nicht nur erkennen, sondern auch mit ihm kommunizieren können.

Eröffnet wird der neue ”Erlebnisraum RoboMob“ am Donnerstag, 11. Mai 2023 um 19 Uhr mit dem KI-Talk ”KI, Roboter und wir – wie gestalten wir unsere gemeinsame Zukunft?“. Dazu gibt es einen Livestream: https://youtube.com/live/siyJp9TGEAw

Quelle

https://www.lifepr.de/inaktiv/deutsches-museum-bonn/deutsches-museum-bonn-eroeffnet-neuen-erlebnisraum-zu-robotik-und-mobilitaet/boxid/945056 (23-05-05)

Robotik schon für die Grundschule?

Die Stadt Bielefeld berichtet am 4. Mai 2023, dass Lehrkräfte an Grundschulen, Lehramtsanwärter und -innen, Studierende und OGS-Mitarbeitende die Einsatzmöglichkeiten von Dash in einem Workshop kennenlernen sollen, um den Kindern einen kindgerechten Einstiegswerkzeug in die Welt der Robotik zu ermöglichen.

Der kleine Roboter Dash kann nicht nur singen und tanzen und durch den Raum flitzen, sondern auch stimmungsabhängig mit den Augen blinzeln und auf Geräusche und Hindernisse in der Umgebung reagieren. Spielerische Apps laden zum Mitmachen ein und der Entdeckergeist wird geweckt – und das immer altersgerecht, interaktiv und kreativ.

Roboter-Boom in Indien

Indien zählt nach einem Bericht der der International Federation of Robotics zu den am schnellsten wachsenden Industrie-Nationen weltweit. Innerhalb von fünf Jahren hat sich der operative Bestand an Industrie-Robotern mehr als verdoppelt und erreichte im Jahr 2021 insgesamt 33.220 Einheiten. Gemessen an den Produktionszahlen des verarbeitenden Gewerbes ist Indien heute die fünftgrößte Volkswirtschaft weltweit, wobei die Automobil-Industrie der größte Kunde für die Robotik-Industrie in Indien mit einem Marktanteil von 31 % im Jahr 2021 bleibt. Die Zahl der Installationen hat sich mit 1.547 Einheiten mehr als verdoppelt. Das langfristige Potenzial für die Robotik in Indien lässt sich mit einem Vergleich zu China besonders verdeutlichen: Indiens Roboterdichte in der Automobil-Industrie, also die Anzahl der Industrie-Roboter pro 10.000 Beschäftigte, erreicht im Jahr 2021 insgesamt 148 Einheiten. Chinas Roboterdichte lag 2010 noch bei 131 Einheiten und stieg bis 2021 auf 772 Einheiten sprunghaft an.

Neue Produktionskapazitäten sind ein wichtiger Schritt, um der indischen Bevölkerung angemessene Bildungs- und Beschäftigungsmöglichkeiten zu bieten, denn nach Hochrechnungen der Vereinten Nationen hat Indien inzwischen eine Bevölkerung von 1,4 Mrd. Menschen erreicht und übertrifft damit erstmals China. Dies bedeutet, dass Indien über eine große und junge Bevölkerung von Erwerbstätigen verfügt, die Wirtschaftswachstum und Innovation vorantreiben kann. Den Prognosen zufolge wird Indien bis 2027 die Volkswirtschaft mit der weltweit größten Bevölkerung im erwerbsfähigen Alter sein.

Quelle

https://ifr.org/ifr-press-releases/news/indias-robot-boom-hits-all-time-high (23-05-04)