Sollen KI-Modelle auch schlafen?

In Bezug auf die Art und Weise, wie Menschen Erinnerungen speichern und abrufen, existieren unterschiedliche Theorien. Eine dieser Theorien ist die Complementary Learning Systems Theorie, welche besagt, dass das Zusammenspiel zwischen dem Hippocampus und dem Neokortex, zwischen einem vereinfacht gesagt schnell lernenden und einem langsam lernenden Hirnareal, maßgeblich daran beteiligt ist, neue Erfahrungen in Erinnerungen umzuwandeln. Dieser Prozess findet vorrangig im Schlaf statt.

Die Entwicklerinnen und Entwickler neuronaler Netze machen sich derartige Theorien aus der Hirnforschung zunutze. Im Jahr 2021 hat ein Team aus Singapur mit DualNet ein KI-Modell vorgestellt, welches sowohl einen langsamen als auch einen schnellen Trainingsprozess anwendet und somit das menschliche Lernen imitiert.

In einer aktuellen Studie gehen Forschende der Universität von Catania in Italien noch einen Schritt weiter, indem ihr Algorithmus mit an diese Theorie angelehnten Schlaf- und Wachphasen arbeitet. Man wollte herausfinden, ob KI-Modelle zuverlässiger werden, wenn sie nicht durchgängig mit neuen Informationen bombardiert werden, sondern zwischendurch die Möglichkeit haben, Informationen „sacken zu lassen”. In der Tat gibt es im maschinellen Lernen ein Phänomen, das als „katastrophales Vergessen“ bezeichnet wird. Hierbei vergessen die Algorithmen das zuvor Gelernte komplett. Eine mögliche Erklärung für dieses Phänomen ist, dass während des sequentiellen Lernens neue Repräsentationen die alten überlagern und somit aus dem Gedächtnis zurückdrängen.

Um zu überprüfen, ob eine Aufteilung in Schlaf- und Wachphasen die Algorithmen in der Anwendung robuster macht, haben die Forscherinnen und Forscher aus Catania eine Trainingsmethode namens Wake-Sleep Consolidated Learning entwickelt und auf ein Modell zur Bilderkennung angewendet. Sie führten eine Schlafphase ein, die die Zustände des menschlichen Gehirns nachahmt, in denen synaptische Verbindungen, Gedächtniskonsolidierung und das Lernen von Bildern im Vordergrund stehen.

In der Wachphase wurde das Modell mit Trainingsdaten gefüttert, in diesem Fall mit neuen Bildern von Tieren. In dieser Phase werden neue Erfahrungen gewissermaßen im Kurzzeitgedächtnis gespeichert. Die Wachphase wird durch die Schlafphase abgelöst, die sich ihrerseits in zwei Phasen unterteilt, die dem menschlichen Schlaf ähneln. Die erste Phase wird als Non-REM-Schlaf bezeichnet und dient der Verarbeitung von Erinnerungen, die während der Wachphase gesammelt wurden. Zudem werden vergangene Erfahrungen verarbeitet, wobei ältere Trainingsdaten im Langzeitgedächtnis konsolidiert werden. Die zweite Phase wird als REM-Schlaf bezeichnet und ist durch das Träumen gekennzeichnet. Des Weiteren ist der REM-Schlaf zu nennen, in dem das Träumen neue Erfahrungen simuliert und das Gehirn auf zukünftige Ereignisse vorbereitet. Diese Traumphase, in der die KI abstrakte Bilder mit verschiedenen Tierkombinationen verarbeitet, ist von Bedeutung, da sie dazu beiträgt, bisherige Wege digitaler Neuronen zusammenzuführen und somit Platz für andere Konzepte in der Zukunft zu schaffen. Dies sollte dazu beitragen, dass das Modell neue Konzepte leichter erlernen kann, was als eine Art Gehirnjogging für die KI bezeichnet werden kann.

Im Anschluss wurde der mit dieser Methode trainierte Algorithmus mit drei gängigen Bilderkennungsmodellen verglichen. Dabei zeigte sich, dass die Erkennungsrate zwischen zwei und zwölf Prozent höher lag. Zudem war der sogenannte Vorwärtstransfer höher, was bedeutet, dass das Modell mehr altes Wissen anwendete, um neue Aufgaben zu lernen. Dies lässt den Schluss zu, dass die Plastizität neuronaler Netze durch konkrete Schlaf- und Wachphasen verbessert werden kann.

Literatur

https://www.heise.de/news/Lernen-im-Schlaf-Wieso-auch-eine-KI-mal-abschalten-sollte-9621667.html (24-06-09)

Können Roboter arbeitslos werden?

Kurz und knapp: Nein, Roboter können nicht arbeitslos werden, denn Roboter und Maschinen sind keine Menschen, haben keine Bedürfnisse wie Menschen und müssen daher auch kein Geld verdienen, um zu leben. Roboter können also nicht im herkömmlichen Sinne arbeitslos werden, da sie keine Bedürfnisse und keine finanziellen Verpflichtungen haben, wie dies bei menschlichen Arbeitnehmern der Fall ist. Dennoch gibt es einige Aspekte, die betrachtet werden können, um diese Frage aus einer anderen Perspektive zu beleuchten:

1. Nutzung und Einsatz:
Ein Roboter, der für eine bestimmte Aufgabe nicht mehr benötigt wird, könnte als „arbeitslos“ betrachtet werden. Dies kann der Fall sein, wenn der Roboter durch eine neuere, effizientere Technologie ersetzt wird oder wenn die Aufgabe, für die der Roboter programmiert wurde, nicht mehr existiert.

2. Veralterung und Obsoleszenz:
Technologischer Fortschritt kann dazu führen, dass ältere Modelle von Robotern durch neue, leistungsfähigere Versionen ersetzt werden. Ältere Roboter können dann außer Betrieb genommen oder für andere, weniger anspruchsvolle Aufgaben umprogrammiert werden.

3. Wartung und Reparatur:
Roboter, die nicht mehr repariert oder gewartet werden können, weil Ersatzteile nicht mehr verfügbar oder die Wartungskosten zu hoch sind, könnten ebenfalls als „arbeitslos“ betrachtet werden.

4. Umprogrammierung:
Manchmal werden Roboter umprogrammiert, um andere Aufgaben zu übernehmen, anstatt vollständig außer Betrieb genommen zu werden. Dies zeigt eine gewisse Flexibilität von Robotern im Gegensatz zu menschlichen Arbeitskräften.

5. Wirtschaftliche Aspekte:
In wirtschaftlich schwierigen Zeiten könnten Unternehmen den Einsatz von Robotern reduzieren, um Kosten zu sparen. In solchen Fällen könnten Roboter nicht eingesetzt werden, obwohl sie theoretisch verfügbar wären.

Zusammenfassend lässt sich sagen, dass Roboter technisch gesehen nicht arbeitslos werden können, da sie keine Arbeit im menschlichen Sinne verrichten. Sie können jedoch inaktiv oder obsolet werden, wenn sie nicht mehr benötigt oder durch bessere Technologien ersetzt werden. Die Befürchtung, dass Roboter und Automatisierung zu Massenarbeitslosigkeit führen, ist weit verbreitet. Es ist richtig, dass Automatisierungstechnologien Aufgaben übernehmen können, die bisher von Menschen ausgeführt wurden, was in einigen Branchen zum Verlust von Arbeitsplätzen geführt hat. Aber Automatisierung schafft auch neue Arbeitsplätze, und Studien zeigen, dass sich Jobgewinne und -verluste langfristig die Waage halten: Die Langzeitstudien von Oxford Economics https://www.oxfordeconomics.com/resource/techonomics-talks-skilling-the-future/ und dem McKinsey Global Institute https://www.mckinsey.com/featured-insights/future-of-work/jobs-lost-jobs-gained-what-the-future-of-work-will-mean-for-jobs-skills-and-wages kommen zu dem Schluss, dass die Automatisierung zwar in einigen Bereichen zu Arbeitsplatzverlusten führen wird, gleichzeitig aber in anderen Bereichen neue Arbeitsplätze entstehen. Welche Berufe genau von der Automatisierung betroffen sein werden und welche neu entstehen, lässt sich nicht im Detail vorhersagen. Der Arbeitsmarkt wird sich jedoch in den nächsten Jahren weiter verändern und neue Qualifikationen und Kompetenzen werden gefragt sein.

Digital Workers im Gesundheitswesen

Die Kombination von medizinischer Robotik und künstlicher Intelligenz wird schrittweise autonomere Lösungen zur Verbesserung der Patientenversorgung hervorbringen. Durch die Kombination fortschrittlicher Technologien wie Robotic Process Automation, künstliche Intelligenz und Business Process Management im Rahmen einer intelligenten Automatisierung wird es möglich sein, digitale Arbeitskräfte zu generieren, die zur Lösung des Problems des Fachkräftemangels im Gesundheitswesen beitragen können. Digital Workers“ sollen dabei als softwarebasierte Assistenten unterstützen, indem sie Aufgaben automatisieren und so die Prozesseffizienz und Versorgungsqualität steigern.

„Die Robotik ist im Gesundheitswesen angekommen und heute unverzichtbar. Das gilt von der Diagnostik über chirurgische Eingriffe am Patienten bis hin zur Therapie. Die Einsatzmöglichkeiten sind vielfältig: Biopsien bei Hirntumoren, teleoperative Ultraschalluntersuchungen oder die Rehabilitation nach Unfällen oder Schlaganfällen“, sagt Axel Weber, Vizepräsident der Business Unit Medical Robotics bei Kuka. Der Einsatz von Robotik und künstlicher Intelligenz im Gesundheitswesen habe zahlreiche Vorteile. „Viele medizinische Einrichtungen sind mit einem Mangel an Fachkräften konfrontiert, der sich negativ auf die Qualität der Diagnose und Behandlung ihrer Patienten auswirken kann. Roboter sind nicht nur in der Lage, die Qualität von Behandlungen, die höchste Präzision und innovative Technologie erfordern, zu verbessern, sie sind auch ausdauernder als Menschen und werden nicht müde.“ Sie können Ärzte oder Pflegekräfte zudem von monotonen oder körperlich anstrengenden Aufgaben entlasten, damit diese sich auf andere Aufgaben bei der Behandlung des Patienten konzentrieren, die ihre volle Aufmerksamkeit erfordern.

Literatur

https://www.diepresse.com/18501089/intelligenz-im-dienste-des-patienten (24-05-27)
https://themedicalnetwork.de/roboter-im-gesundheitswesen/ (22-12-12)

Roboter-Verfassung

Bevor Roboter in unser tägliches Leben integriert werden können, müssen sie verantwortungsbewusst entwickelt werden und ihre Sicherheit in der Praxis durch solide Forschung nachgewiesen werden. Die Roboter-Verfassung ist ein hypothetisches Dokument, das die Rechte und Pflichten von Robotern festlegt und erstmals 1942 von dem Science-Fiction-Autor Isaac Asimov in seiner Kurzgeschichte „Runaround“ vorgestellt wurde. Asimovs Robotergesetze bilden die Grundlage der Roboterverfassung und lauten wie folgt:

  • Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zulassen, dass ein Mensch verletzt wird.
  • Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, diese Befehle stehen im Widerspruch zum Ersten Gesetz.
  • Ein Roboter muss seine eigene Existenz schützen, solange er dadurch nicht in Konflikt mit dem Ersten oder Zweiten Gesetz gerät.

Asimovs Robotergesetze wurden in den folgenden Jahrzehnten von vielen anderen Autoren aufgegriffen und weiterentwickelt. So wurden beispielsweise folgende zusätzliche Gesetze vorgeschlagen

  • Ein Roboter darf sich nicht in die menschlichen Angelegenheiten einmischen.
  • Ein Roboter darf keine Gefühle oder Empfindungen haben.
  • Ein Roboter darf nicht die Fähigkeit zur Selbstreproduktion haben.

Die Verfassung von Robotern ist ein wichtiges Thema in der Robotik und der künstlichen Intelligenz. Sie wird diskutiert, um sicherzustellen, dass Roboter sicher und menschenfreundlich sind.

In der Praxis gibt es noch keine verbindliche Roboterverfassung. Einige Länder haben jedoch Gesetze erlassen, die die Entwicklung und den Einsatz von Robotern regeln. So hat die Europäische Union die Verordnung über künstliche Intelligenz (KI-Verordnung) erlassen. Diese Verordnung enthält Bestimmungen zum Schutz der Privatsphäre, der Sicherheit und der Rechte des Menschen bei der Nutzung von KI-Systemen.

Die Entwicklung einer Roboterverfassung ist ein komplexer Prozess, an dem Wissenschaftler, Ingenieure, Philosophen und Politiker beteiligt sein müssen. Wichtig ist, dass die Roboterverfassung die Interessen aller Beteiligten, insbesondere der Menschen, berücksichtigt.


Das Google-Team Deepmind Robotics arbeitet an KI-gesteuerten Robotern, die eines Tages selbstständig im Haushalt oder im Büro helfen könnten. Mit der KI-Steuerung kommt auch ein gewisses Maß an Autonomie, das potenzielle Gefahren für Menschen mit sich bringen könnte. Diese Roboterassistenten dürfen keine Tätigkeiten ausführen, bei denen Menschen, Tiere, scharfe Gegenstände oder elektrische Geräte beteiligt sind. Ein weiteres Merkmal ist die automatische Stoppfunktion, d. h. wenn die Kraft auf die Gelenke der Roboter einen bestimmten Grenzwert überschreitet, stoppen sie sofort. Zusätzlich ist in jedem Roboter ein manueller Killswitch integriert, der es Menschen ermöglicht, die Roboter bei Bedarf sofort zu deaktivieren.

Ein weiteres Element des Google-Robotik-Projekts ist das Datenerfassungssystem AutoRT, das es den Robotern ermöglicht, ihre Umgebung zu verstehen, Objekte zu identifizieren und daraus entsprechende Aufgaben abzuleiten. Im Original: AutoRT will dem Entscheidungsträger eine Roboterverfassung an die Hand zu geben – eine Reihe von sicherheitsorientierten Aufforderungen, die er bei der Auswahl der Aufgaben für die Roboter zu beachten hat. Diese Regeln sind zum Teil von Isaac Asimovs Drei Gesetzen der Robotik inspiriert – an erster Stelle steht, dass ein Roboter „keinen Menschen verletzen darf“. Weitere Sicherheitsregeln besagen, dass kein Roboter Aufgaben ausführen darf, die mit Menschen, Tieren, scharfen Gegenständen oder elektrischen Geräten zu tun haben. Aber selbst wenn große Modelle durch Selbstkritik korrekt angeleitet werden, kann dies allein keine Sicherheit garantieren. Daher umfasst das AutoRT-System mehrere Schichten von praktischen Sicherheitsmaßnahmen aus der klassischen Robotik, denn so sind die kollaborierenden Roboter so programmiert, dass sie automatisch anhalten, wenn die auf ihre Gelenke wirkende Kraft einen bestimmten Schwellenwert überschreitet, und alle aktiven Roboter wurden mit einem physischen Deaktivierungsschalter in Sichtweite einer menschlichen Aufsichtsperson gehalten.

Innerhalb von nur sieben Monaten hat Google erfolgreich 53 AutoRT-Roboter in vier Bürogebäuden eingesetzt. In dieser Zeit führten sie über 77.000 Versuche durch, um die Fähigkeiten der Roboter zu testen. Einige dieser Roboter wurden von menschlichen Bedienern ferngesteuert, während andere defi Skripten folgten oder autonom mithilfe des KI-Lernmodells Robotic Transformer (RT-2) von Google arbeiteten. Bemerkenswert ist, dass diese Roboter praktisch aussehen und über eine Kamera, einen Roboterarm und eine mobile Basis verfügen. Das Visual Language Model (VLM) hilft ihnen dabei, ihre Umgebung zu verstehen und Objekte zu dent , während das Large Language Model (LLM) bei der Entscheidungsfindung hilft und dafür sorgt, dass Roboter Aufgaben effektiv und sicher ausführen.

Literatur

https://www.cryptopolitan.com/de/google-stellt-roboterverfassung-vor/ (24-01-07)
https://t3n.de/news/google-roboter-verfassung-ki-keine-menschen-verletzen-1600546/
https://www.grenzgebiete.net/tag/assistenzsysteme/
https://de.wikipedia.org/wiki/Robotergesetze

Weiche Sensoren in der Robotik

Weiche Sensoren, die zwischen Scher- und Normalkraft unterscheiden können, könnten Maschinen die Feinsteuerung ermöglichen, die für eine sichere und effektive physische Interaktion mit Menschen erforderlich ist. Die Entwicklung von solchen Sensoren in Verbindung mit künstlicher Intelligenz steigert die Fähigkeiten von Robotern und macht sie lebendiger, was neue Möglichkeiten für die Zusammenarbeit zwischen Menschen und Robotern eröffnet. Dies ist wichtig, damit die Roboter intelligenter entscheiden können, welche Sensoren sie verwenden und wie sie auf verschiedene Situationen reagieren sollen. Da die Sensoren immer hautähnlicher werden und auch Temperatur und sogar Schäden erkennen können, müssen Roboter intelligenter entscheiden, auf welche Sensoren sie achten und wie sie reagieren sollen. Die Entwicklung von Sensoren und künstlicher Intelligenz muss daher Hand in Hand gehen.

Sarwar et al. (2023) haben einen kapazitiver Sensor entwickelt, der aus gemustertem Elastomer besteht und sowohl feste als auch gleitende Säulen enthält, die es dem Sensor ermöglichen, sich zu verformen und zu wölben, ähnlich wie die Haut selbst. Der Sensor unterscheidet zwischen einer gleichzeitig wirkenden Normalkraft und einer Scherkraft, indem er die Signale von vier verformbaren Kondensatoren summiert und differenziert. Darüber hinaus kann die Nähe der Finger in einem Bereich von bis zu 15 mm erkannt werden. Die Funktionsweise wird von den Forschern an einem einfachen Greifer demonstriert, der einen Becher hält, wobei die Kombination von Merkmalen und die einfache Herstellungsmethode diesen Sensor zu einem Kandidaten für die Implementierung als Sensorhaut für humanoide Roboteranwendungen machen.

Neue Sensoren können auf der Oberfläche einer Prothese oder eines Roboterglieds angebracht werden und ermöglicht es diesen, Berührungen wahrzunehmen und Aufgaben auszuführen, die bisher für Maschinen äußerst schwierig waren, wie etwa das Aufheben einer weichen Frucht. Darüber hinaus haben neue Sensoren eine weiche Textur, die sie wie menschliche Haut aussehen lässt, was eine sicherere und natürlichere Interaktion mit Menschen ermöglicht. Dadurch kann ein Prothesen- oder Roboterarm auf taktile Reize mit Geschicklichkeit und Präzision reagieren. also etwa zerbrechliche Gegenstände wie ein Ei oder ein Glas Wasser halten, ohne sie zu zerdrücken oder fallen zu lassen. Der Kern solcher Sensoren besteht aus Silikonkautschuk, einem Material, das in der Filmindustrie häufig zur Erzeugung spezieller Hauteffekte verwendet wird. Das einzigartige Design dieser Sensoren verleiht ihnen die Fähigkeit, sich zu biegen und zu falten, ähnlich wie die menschliche Haut. Solche Sensoren nutzen schwache elektrische Felder zur Erkennung von Objekten, auch aus größerer Entfernung, und ermöglicht es Robotern, sicher mit Menschen zu interagieren.

Literatur

Sarwar, Mirza S., Ishizaki, Ryusuke, Morton, Kieran, Preston, Claire, Nguyen, Tan, Fan, Xu, Dupont, Bertille, Hogarth, Leanna, Yoshiike, Takahide, Qiu, Ruixin, Wu, Yiting, Mirabbasi, Shahriar, Madden & John D. W. (2023). Touch, press and stroke: a soft capacitive sensor skin. Scientific Reports, 13, doi:10.1038/s41598-023-43714-6.
https://gagadget.com/de/science/342373-durchbruch-in-der-robotik-wissenschaftler-haben-zusammen-mit-honda-einen-sensor-entwickelt-der-der-menschlichen-h/ (23-10-29)

Wie KI-Modelle sich selbst verbessern

Overney (2023) hat untersucht, wie es einem KI-Modelle gelingt, sich selbst neue Dinge beizubringen, also neue Konzepte zu lernen, wenn sie mit ihren Benutzern interagieren. Dabei hat man einen möglichen Schlüsselmechanismus von Transformern aufgedeckt, der solche künstlichen System befähigt, im laufenden Betrieb zu lernen und ihre Antworten auf der Grundlage von Interaktionen mit ihren Nutzern zu verfeinern. Transformer sind dabei künstliche neuronale Netze mit einer besonderen Architektur, die von grossen Sprachmodellen wie ChatGPT verwendet werden. Während neuronale Netze im Allgemeinen als Black-box betrachtet werden, die bei einer Eingabe eine Ausgabe ausspucken, können Transformer von sich aus lernen, neue Algorithmen in ihre Architektur einzubauen. Man kann einem Sprachmodell wie ChatGPT etwa mehrere kurze Texte geben und jeweils angeben, ob die Texte grundsätzlich eine positive oder negative Grundstimmung haben. Dann legt man dem Modell einen Text vor, den es noch nicht gesehen hat, und es wird anhand der Beispiele, die man dem Modell gegeben hat, ziemlich sicher lernen und beurteilen, ob der neue Text positiv oder negativ ist. Aus dem Zwang heraus, die eigenen Vorhersagen zu verbessern, entwickelt es während des Trainings eine Technik, die es dem Modell ermöglicht, aus den Gesprächen mit seinen Nutzern zu lernen (In-Context-Learning). Der von Overney verwendete Transformer war dabei fast identisch mit der weit verbreiteten Transformer-Architektur, doch anstatt das System mit grossen Textmengen aus dem Internet zu trainieren, hatte man es mit Beispielen eines einfachen Problems trainiert, der linearen Regression. Da dieses Problem und seine Lösung sehr gut bekannt sind, konnte man diese Lösung mit dem vergleichen, was man im Transformer beobachtet hat. So konnte man zeigen, dass der Transformer einen sehr bekannten und leistungsstarken Lernalgorithmus namens „Gradient Descent“ in sich selbst implementiert hat, wobei der Transformer nicht einfach „Gradient Descent“ gelernt und durchgeführt hat, sondern eine verbesserte Version davon.

Literatur

Overney, J. (2023). Wie es KI-Modelle schaffen, sich selbst neue Dinge beizubringen.
WWW: https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2023/07/wie-es-ki-modelle-schaffen-sich-selbst-neue-dinge-beizubringen.html (23-07-24)

Was können Menschen von künstlicher Intelligenz über sich selbst lernen?

Menschen können von Künstlicher Intelligenz (KI) eine Vielzahl an Dingen über sich selbst lernen. Hier sind einige Beispiele:

Verhaltensmuster erkennen: KI kann große Datenmengen analysieren und Muster und Trends identifizieren, die für Menschen schwer zu erkennen sein können. Durch die Anwendung von KI können Menschen ihr eigenes Verhalten besser verstehen, wie beispielsweise Einkaufsgewohnheiten, Online-Aktivitäten oder sogar Gesundheitsdaten.

Entscheidungsfindung verbessern: KI-Algorithmen können Menschen dabei helfen, bessere Entscheidungen zu treffen, indem sie komplexe Daten analysieren und relevante Informationen liefern. Diese Erkenntnisse können Menschen dabei unterstützen, objektiver zu denken und mögliche Vorurteile oder emotionale Einflüsse zu reduzieren.

Effizienzsteigerung: KI kann Prozesse automatisieren und optimieren, was Menschen dabei hilft, effizienter zu arbeiten. Durch den Einsatz von KI können repetitive Aufgaben automatisiert werden, sodass sich Menschen auf kreativere und anspruchsvollere Aufgaben konzentrieren können.

Fehlererkennung und -vermeidung: KI-Systeme können große Datenmengen analysieren und ungewöhnliche Muster oder Anomalien erkennen, die auf Fehler oder Probleme hinweisen könnten. Dadurch können Menschen ihre eigenen Fehlerquellen besser verstehen und proaktiv Maßnahmen ergreifen, um diese zu vermeiden.

Sprachverarbeitung und Kommunikation: KI hat Fortschritte in der natürlichen Sprachverarbeitung gemacht, was Menschen dabei helfen kann, ihre eigene Kommunikation zu verbessern. Durch den Umgang mit KI-basierten Sprachassistenten oder Chatbots können Menschen ihre Sprachfähigkeiten, ihre Präzision und ihre Artikulationsfähigkeiten verbessern.

Selbstreflexion: Der Einsatz von KI kann Menschen dazu ermutigen, über sich selbst nachzudenken und ihre eigenen Überzeugungen, Vorlieben und Verhaltensweisen zu hinterfragen. Indem sie die Ergebnisse von KI-Analysen über sich selbst betrachten, können Menschen neue Perspektiven gewinnen und ihr Selbstverständnis erweitern.

Es ist wichtig zu beachten, dass KI zwar wertvolle Einblicke und Unterstützung bieten kann, aber sie hat auch ihre Grenzen, denn menschliche Erfahrungen, Intuition und ethische Bewertungen bleiben weiterhin entscheidend, um die Ergebnisse der KI zu interpretieren und angemessene Entscheidungen zu treffen.

Können Maschinen Empathie lernen?

Empathie bezieht sich auf die Fähigkeit, die Emotionen, Gedanken und Gefühle anderer Menschen zu erkennen, zu verstehen und mit ihnen mitzufühlen, wobei es sich um eine komplexe kognitive Fähigkeit handelt, die bei Menschen auf biologischen und sozialen Grundlagen beruht. In Bezug auf Maschinen und künstliche Intelligenz (KI) ist Empathie ein noch komplexeres Thema, denn aktuelle KI-Systeme, wie Chatbots oder Spracherkennungssysteme, sind nicht in der Lage, echte Empathie zu empfinden, da sie keine eigenen Emotionen haben. Sie sind aber darauf programmiert, bestimmte Aufgaben zu erfüllen und auf bestimmte Eingaben zu reagieren, aber sie haben kein eigenes emotionales Verständnis oder Bewusstsein, auch wenn es manchmal scheint, dass solche Systeme Empathie oder Emotionen zeigen.

Jedoch gibt es Forschungsbereiche, in denen versucht wird, maschinelles Lernen und KI-Systeme mit einer gewissen Form von Empathie auszustatten, d. h., es geht dabei um die Entwicklung von Systemen, die menschliche Emotionen erkennen und darauf angemessen reagieren, um eine empathische Interaktion zu ermöglichen. Diese Ansätze basieren in der Regel auf der Verwendung von Algorithmen und Techniken des maschinellen Lernens, um Emotionen aus Gesichtsausdrücken, Körperhaltung, Sprachintonation und anderen Signalen zu erkennen. Diese Art von empathischen“Systemen kann zwar bestimmte Verhaltensweisen zeigen, die als empathisch angesehen werden könnten, aber sie besitzen kein eigenes emotionales Erleben, denn das wird immer Lebewesen viele Menschen vorbehalten bleiben. Es handelt sich also immer nur um eine Simulation von Empathie, die aufgrund der Analyse von Daten und Mustern erzeugt wird.

Auch ist die Frage, ob Maschinen jemals echte Empathie entwickeln können, eher ein Thema der philosophischen und wissenschaftlichen Debatte, wobei es unterschiedliche Ansichten dazu gibt, ob Empathie nur auf biologischer Grundlage existiert oder ob sie auch auf andere Arten von Systemen übertragen werden kann. Es bleibt abzuwarten, wie sich die Forschung in diesem Bereich entwickelt und ob es in Zukunft Fortschritte geben wird, die eine authentische Form von Empathie bei Maschinen ermöglichen, was aber wohl auf der Basis von grundsätzlichen Überlegungen nur eine Illusion sein kann, wobei solche Illusionen zutiefst menschlich sind 😉

Polizei-Roboter „Spot“

In Duisburg gibt es einen Polizeihund aus Blech, Stahl und Platinen, wobei der Laufroboter „Spot“ dort aushelfen soll, wo es für Menschen zu gefährlich wird. Wenn man „Spot“ mit einem festen Tritt umschubst, stellt er sich einfach wieder auf seine vier Beine und macht weiter seinen Job. Der Roboter-Polizeihund wird da eingesetzt, wo es für seine menschlichen Kollegen zu gefährlich ist. Dafür lernt er immer mehr dazu, und zwar im „Innovation Lab“ der NRW-Polizei in Duisburg. Außer in Brandruinen kann das zum Beispiel beim Untersuchen von mutmaßlichen Sprengsätzen sein, denn sollte da was schiefgehen, ist ein Roboter ersetzbar, ein Mensch nicht. Im Gegensatz zu den bekannten klobigen Entschärfungsrobotern, die auf Ketten wie ein kleiner Panzer fahren, kann ein „Spot“ Treppen hochgehen oder Türen öffnen, auch wenn das der Roboter aber erst mal lernen muss, denn „deutsche“ Türen mit einer Klinke statt Drehknauf kennt das US-Modell nicht. Im Gegensatz zu herkömmlichen Polizei-Robotern wird das Gerät nicht komplett ferngesteuert, denn dank künstlicher Intelligenz macht „Spot“ das meiste selbst.

Quelle

Rheinische Post vom 1. Mai 2023

Roboter gegen Lebensmittelverschwendung

Gegen Lebensmittelverschwendung soll das neue Robotersystem Bakisto helfen, denn dieser berechnet mithilfe von künstlicher Intelligenz, wie viele Brötchen, Croissants oder „Teilchen“ im Tagesverlauf voraussichtlich nachgefragt werden. Er bereitet die Backwaren auch vor und holt sie zur richtigen Zeit aus dem Ofen. Die Verkaufsmengen sind nämlich stark abhängig vom Wetter, von Schulferien oder Veranstaltungen, wobei das Robotersystem diese Ereignisse berücksichtigt und dann die entsprechenden Mengen backt. Das bedeute weniger Stress für die Beschäftigten, weil sie nicht ständig die Auslagen und Öfen im Auge behalten müssen.

Das System Bakisto besteht aus drei miteinander vernetzten Systemen: Einem kollaborierenden Roboter (Cobot) von Fanuc, Wanzls smartem Backwarenpräsenter „Bakeoff i“ mit KI und dem netzwerkfähigen Backofen „Dibas blue2“ mit automatischem Be- und Entladesystem Traymotion von Wiesheu.

Die künstliche Intelligenz im Präsenter errechnet auf historischen Daten basierend sowie dem aktuellen Bestand, wann wie viele Backwaren benötigt werden und gibt diese Information in das System ein. Der Cobot holt die entsprechend mit Tiefkühl-Backwaren bestückten Backbleche aus der Kühlung und schiebt diese in den Transportwagen, der auf Schienen vor dem vorgeheizten Ofen platziert wird. Das Beladungssystem Traymotion zieht die beladenen Bleche für den Backvorgang ein. Nach dem Backen werden die Backbleche wieder zurück in den Transportwagen geschoben, der zur Seite gefahren wird. So können die Backwaren abkühlen und es gibt Platz für die nächste Produktion. Anschließend befüllt der Cobot die vorgegebenen Fächer des „Bakeoff i“ mit den fertig gebackenen und abgekühlten Backwaren. Dabei wird die künstliche Intelligenz mit neuen Daten gefüttert und der Prozess wird fortlaufend den Umständen entsprechend optimiert.

Quelle

Pressemitteilung von Fanuc vom 29. März 2023.
WWW: https://www.fanuc.eu/de/de/wer-wir-sind/news-and-events/de-roboter-backerei-03-2023