Roboter-Verfassung

Bevor Roboter in unser tägliches Leben integriert werden können, müssen sie verantwortungsbewusst entwickelt werden und ihre Sicherheit in der Praxis durch solide Forschung nachgewiesen werden. Die Roboter-Verfassung ist ein hypothetisches Dokument, das die Rechte und Pflichten von Robotern festlegt und erstmals 1942 von dem Science-Fiction-Autor Isaac Asimov in seiner Kurzgeschichte „Runaround“ vorgestellt wurde. Asimovs Robotergesetze bilden die Grundlage der Roboterverfassung und lauten wie folgt:

  • Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zulassen, dass ein Mensch verletzt wird.
  • Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, diese Befehle stehen im Widerspruch zum Ersten Gesetz.
  • Ein Roboter muss seine eigene Existenz schützen, solange er dadurch nicht in Konflikt mit dem Ersten oder Zweiten Gesetz gerät.

Asimovs Robotergesetze wurden in den folgenden Jahrzehnten von vielen anderen Autoren aufgegriffen und weiterentwickelt. So wurden beispielsweise folgende zusätzliche Gesetze vorgeschlagen

  • Ein Roboter darf sich nicht in die menschlichen Angelegenheiten einmischen.
  • Ein Roboter darf keine Gefühle oder Empfindungen haben.
  • Ein Roboter darf nicht die Fähigkeit zur Selbstreproduktion haben.

Die Verfassung von Robotern ist ein wichtiges Thema in der Robotik und der künstlichen Intelligenz. Sie wird diskutiert, um sicherzustellen, dass Roboter sicher und menschenfreundlich sind.

In der Praxis gibt es noch keine verbindliche Roboterverfassung. Einige Länder haben jedoch Gesetze erlassen, die die Entwicklung und den Einsatz von Robotern regeln. So hat die Europäische Union die Verordnung über künstliche Intelligenz (KI-Verordnung) erlassen. Diese Verordnung enthält Bestimmungen zum Schutz der Privatsphäre, der Sicherheit und der Rechte des Menschen bei der Nutzung von KI-Systemen.

Die Entwicklung einer Roboterverfassung ist ein komplexer Prozess, an dem Wissenschaftler, Ingenieure, Philosophen und Politiker beteiligt sein müssen. Wichtig ist, dass die Roboterverfassung die Interessen aller Beteiligten, insbesondere der Menschen, berücksichtigt.


Das Google-Team Deepmind Robotics arbeitet an KI-gesteuerten Robotern, die eines Tages selbstständig im Haushalt oder im Büro helfen könnten. Mit der KI-Steuerung kommt auch ein gewisses Maß an Autonomie, das potenzielle Gefahren für Menschen mit sich bringen könnte. Diese Roboterassistenten dürfen keine Tätigkeiten ausführen, bei denen Menschen, Tiere, scharfe Gegenstände oder elektrische Geräte beteiligt sind. Ein weiteres Merkmal ist die automatische Stoppfunktion, d. h. wenn die Kraft auf die Gelenke der Roboter einen bestimmten Grenzwert überschreitet, stoppen sie sofort. Zusätzlich ist in jedem Roboter ein manueller Killswitch integriert, der es Menschen ermöglicht, die Roboter bei Bedarf sofort zu deaktivieren.

Ein weiteres Element des Google-Robotik-Projekts ist das Datenerfassungssystem AutoRT, das es den Robotern ermöglicht, ihre Umgebung zu verstehen, Objekte zu identifizieren und daraus entsprechende Aufgaben abzuleiten. Im Original: AutoRT will dem Entscheidungsträger eine Roboterverfassung an die Hand zu geben – eine Reihe von sicherheitsorientierten Aufforderungen, die er bei der Auswahl der Aufgaben für die Roboter zu beachten hat. Diese Regeln sind zum Teil von Isaac Asimovs Drei Gesetzen der Robotik inspiriert – an erster Stelle steht, dass ein Roboter „keinen Menschen verletzen darf“. Weitere Sicherheitsregeln besagen, dass kein Roboter Aufgaben ausführen darf, die mit Menschen, Tieren, scharfen Gegenständen oder elektrischen Geräten zu tun haben. Aber selbst wenn große Modelle durch Selbstkritik korrekt angeleitet werden, kann dies allein keine Sicherheit garantieren. Daher umfasst das AutoRT-System mehrere Schichten von praktischen Sicherheitsmaßnahmen aus der klassischen Robotik, denn so sind die kollaborierenden Roboter so programmiert, dass sie automatisch anhalten, wenn die auf ihre Gelenke wirkende Kraft einen bestimmten Schwellenwert überschreitet, und alle aktiven Roboter wurden mit einem physischen Deaktivierungsschalter in Sichtweite einer menschlichen Aufsichtsperson gehalten.

Innerhalb von nur sieben Monaten hat Google erfolgreich 53 AutoRT-Roboter in vier Bürogebäuden eingesetzt. In dieser Zeit führten sie über 77.000 Versuche durch, um die Fähigkeiten der Roboter zu testen. Einige dieser Roboter wurden von menschlichen Bedienern ferngesteuert, während andere defi Skripten folgten oder autonom mithilfe des KI-Lernmodells Robotic Transformer (RT-2) von Google arbeiteten. Bemerkenswert ist, dass diese Roboter praktisch aussehen und über eine Kamera, einen Roboterarm und eine mobile Basis verfügen. Das Visual Language Model (VLM) hilft ihnen dabei, ihre Umgebung zu verstehen und Objekte zu dent , während das Large Language Model (LLM) bei der Entscheidungsfindung hilft und dafür sorgt, dass Roboter Aufgaben effektiv und sicher ausführen.

Literatur

https://www.cryptopolitan.com/de/google-stellt-roboterverfassung-vor/ (24-01-07)
https://t3n.de/news/google-roboter-verfassung-ki-keine-menschen-verletzen-1600546/
https://www.grenzgebiete.net/tag/assistenzsysteme/
https://de.wikipedia.org/wiki/Robotergesetze

Weiche Sensoren in der Robotik

Weiche Sensoren, die zwischen Scher- und Normalkraft unterscheiden können, könnten Maschinen die Feinsteuerung ermöglichen, die für eine sichere und effektive physische Interaktion mit Menschen erforderlich ist. Die Entwicklung von solchen Sensoren in Verbindung mit künstlicher Intelligenz steigert die Fähigkeiten von Robotern und macht sie lebendiger, was neue Möglichkeiten für die Zusammenarbeit zwischen Menschen und Robotern eröffnet. Dies ist wichtig, damit die Roboter intelligenter entscheiden können, welche Sensoren sie verwenden und wie sie auf verschiedene Situationen reagieren sollen. Da die Sensoren immer hautähnlicher werden und auch Temperatur und sogar Schäden erkennen können, müssen Roboter intelligenter entscheiden, auf welche Sensoren sie achten und wie sie reagieren sollen. Die Entwicklung von Sensoren und künstlicher Intelligenz muss daher Hand in Hand gehen.

Sarwar et al. (2023) haben einen kapazitiver Sensor entwickelt, der aus gemustertem Elastomer besteht und sowohl feste als auch gleitende Säulen enthält, die es dem Sensor ermöglichen, sich zu verformen und zu wölben, ähnlich wie die Haut selbst. Der Sensor unterscheidet zwischen einer gleichzeitig wirkenden Normalkraft und einer Scherkraft, indem er die Signale von vier verformbaren Kondensatoren summiert und differenziert. Darüber hinaus kann die Nähe der Finger in einem Bereich von bis zu 15 mm erkannt werden. Die Funktionsweise wird von den Forschern an einem einfachen Greifer demonstriert, der einen Becher hält, wobei die Kombination von Merkmalen und die einfache Herstellungsmethode diesen Sensor zu einem Kandidaten für die Implementierung als Sensorhaut für humanoide Roboteranwendungen machen.

Neue Sensoren können auf der Oberfläche einer Prothese oder eines Roboterglieds angebracht werden und ermöglicht es diesen, Berührungen wahrzunehmen und Aufgaben auszuführen, die bisher für Maschinen äußerst schwierig waren, wie etwa das Aufheben einer weichen Frucht. Darüber hinaus haben neue Sensoren eine weiche Textur, die sie wie menschliche Haut aussehen lässt, was eine sicherere und natürlichere Interaktion mit Menschen ermöglicht. Dadurch kann ein Prothesen- oder Roboterarm auf taktile Reize mit Geschicklichkeit und Präzision reagieren. also etwa zerbrechliche Gegenstände wie ein Ei oder ein Glas Wasser halten, ohne sie zu zerdrücken oder fallen zu lassen. Der Kern solcher Sensoren besteht aus Silikonkautschuk, einem Material, das in der Filmindustrie häufig zur Erzeugung spezieller Hauteffekte verwendet wird. Das einzigartige Design dieser Sensoren verleiht ihnen die Fähigkeit, sich zu biegen und zu falten, ähnlich wie die menschliche Haut. Solche Sensoren nutzen schwache elektrische Felder zur Erkennung von Objekten, auch aus größerer Entfernung, und ermöglicht es Robotern, sicher mit Menschen zu interagieren.

Literatur

Sarwar, Mirza S., Ishizaki, Ryusuke, Morton, Kieran, Preston, Claire, Nguyen, Tan, Fan, Xu, Dupont, Bertille, Hogarth, Leanna, Yoshiike, Takahide, Qiu, Ruixin, Wu, Yiting, Mirabbasi, Shahriar, Madden & John D. W. (2023). Touch, press and stroke: a soft capacitive sensor skin. Scientific Reports, 13, doi:10.1038/s41598-023-43714-6.
https://gagadget.com/de/science/342373-durchbruch-in-der-robotik-wissenschaftler-haben-zusammen-mit-honda-einen-sensor-entwickelt-der-der-menschlichen-h/ (23-10-29)

Wie KI-Modelle sich selbst verbessern

Overney (2023) hat untersucht, wie es einem KI-Modelle gelingt, sich selbst neue Dinge beizubringen, also neue Konzepte zu lernen, wenn sie mit ihren Benutzern interagieren. Dabei hat man einen möglichen Schlüsselmechanismus von Transformern aufgedeckt, der solche künstlichen System befähigt, im laufenden Betrieb zu lernen und ihre Antworten auf der Grundlage von Interaktionen mit ihren Nutzern zu verfeinern. Transformer sind dabei künstliche neuronale Netze mit einer besonderen Architektur, die von grossen Sprachmodellen wie ChatGPT verwendet werden. Während neuronale Netze im Allgemeinen als Black-box betrachtet werden, die bei einer Eingabe eine Ausgabe ausspucken, können Transformer von sich aus lernen, neue Algorithmen in ihre Architektur einzubauen. Man kann einem Sprachmodell wie ChatGPT etwa mehrere kurze Texte geben und jeweils angeben, ob die Texte grundsätzlich eine positive oder negative Grundstimmung haben. Dann legt man dem Modell einen Text vor, den es noch nicht gesehen hat, und es wird anhand der Beispiele, die man dem Modell gegeben hat, ziemlich sicher lernen und beurteilen, ob der neue Text positiv oder negativ ist. Aus dem Zwang heraus, die eigenen Vorhersagen zu verbessern, entwickelt es während des Trainings eine Technik, die es dem Modell ermöglicht, aus den Gesprächen mit seinen Nutzern zu lernen (In-Context-Learning). Der von Overney verwendete Transformer war dabei fast identisch mit der weit verbreiteten Transformer-Architektur, doch anstatt das System mit grossen Textmengen aus dem Internet zu trainieren, hatte man es mit Beispielen eines einfachen Problems trainiert, der linearen Regression. Da dieses Problem und seine Lösung sehr gut bekannt sind, konnte man diese Lösung mit dem vergleichen, was man im Transformer beobachtet hat. So konnte man zeigen, dass der Transformer einen sehr bekannten und leistungsstarken Lernalgorithmus namens „Gradient Descent“ in sich selbst implementiert hat, wobei der Transformer nicht einfach „Gradient Descent“ gelernt und durchgeführt hat, sondern eine verbesserte Version davon.

Literatur

Overney, J. (2023). Wie es KI-Modelle schaffen, sich selbst neue Dinge beizubringen.
WWW: https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2023/07/wie-es-ki-modelle-schaffen-sich-selbst-neue-dinge-beizubringen.html (23-07-24)

Was können Menschen von künstlicher Intelligenz über sich selbst lernen?

Menschen können von Künstlicher Intelligenz (KI) eine Vielzahl an Dingen über sich selbst lernen. Hier sind einige Beispiele:

Verhaltensmuster erkennen: KI kann große Datenmengen analysieren und Muster und Trends identifizieren, die für Menschen schwer zu erkennen sein können. Durch die Anwendung von KI können Menschen ihr eigenes Verhalten besser verstehen, wie beispielsweise Einkaufsgewohnheiten, Online-Aktivitäten oder sogar Gesundheitsdaten.

Entscheidungsfindung verbessern: KI-Algorithmen können Menschen dabei helfen, bessere Entscheidungen zu treffen, indem sie komplexe Daten analysieren und relevante Informationen liefern. Diese Erkenntnisse können Menschen dabei unterstützen, objektiver zu denken und mögliche Vorurteile oder emotionale Einflüsse zu reduzieren.

Effizienzsteigerung: KI kann Prozesse automatisieren und optimieren, was Menschen dabei hilft, effizienter zu arbeiten. Durch den Einsatz von KI können repetitive Aufgaben automatisiert werden, sodass sich Menschen auf kreativere und anspruchsvollere Aufgaben konzentrieren können.

Fehlererkennung und -vermeidung: KI-Systeme können große Datenmengen analysieren und ungewöhnliche Muster oder Anomalien erkennen, die auf Fehler oder Probleme hinweisen könnten. Dadurch können Menschen ihre eigenen Fehlerquellen besser verstehen und proaktiv Maßnahmen ergreifen, um diese zu vermeiden.

Sprachverarbeitung und Kommunikation: KI hat Fortschritte in der natürlichen Sprachverarbeitung gemacht, was Menschen dabei helfen kann, ihre eigene Kommunikation zu verbessern. Durch den Umgang mit KI-basierten Sprachassistenten oder Chatbots können Menschen ihre Sprachfähigkeiten, ihre Präzision und ihre Artikulationsfähigkeiten verbessern.

Selbstreflexion: Der Einsatz von KI kann Menschen dazu ermutigen, über sich selbst nachzudenken und ihre eigenen Überzeugungen, Vorlieben und Verhaltensweisen zu hinterfragen. Indem sie die Ergebnisse von KI-Analysen über sich selbst betrachten, können Menschen neue Perspektiven gewinnen und ihr Selbstverständnis erweitern.

Es ist wichtig zu beachten, dass KI zwar wertvolle Einblicke und Unterstützung bieten kann, aber sie hat auch ihre Grenzen, denn menschliche Erfahrungen, Intuition und ethische Bewertungen bleiben weiterhin entscheidend, um die Ergebnisse der KI zu interpretieren und angemessene Entscheidungen zu treffen.

Können Maschinen Empathie lernen?

Empathie bezieht sich auf die Fähigkeit, die Emotionen, Gedanken und Gefühle anderer Menschen zu erkennen, zu verstehen und mit ihnen mitzufühlen, wobei es sich um eine komplexe kognitive Fähigkeit handelt, die bei Menschen auf biologischen und sozialen Grundlagen beruht. In Bezug auf Maschinen und künstliche Intelligenz (KI) ist Empathie ein noch komplexeres Thema, denn aktuelle KI-Systeme, wie Chatbots oder Spracherkennungssysteme, sind nicht in der Lage, echte Empathie zu empfinden, da sie keine eigenen Emotionen haben. Sie sind aber darauf programmiert, bestimmte Aufgaben zu erfüllen und auf bestimmte Eingaben zu reagieren, aber sie haben kein eigenes emotionales Verständnis oder Bewusstsein, auch wenn es manchmal scheint, dass solche Systeme Empathie oder Emotionen zeigen.

Jedoch gibt es Forschungsbereiche, in denen versucht wird, maschinelles Lernen und KI-Systeme mit einer gewissen Form von Empathie auszustatten, d. h., es geht dabei um die Entwicklung von Systemen, die menschliche Emotionen erkennen und darauf angemessen reagieren, um eine empathische Interaktion zu ermöglichen. Diese Ansätze basieren in der Regel auf der Verwendung von Algorithmen und Techniken des maschinellen Lernens, um Emotionen aus Gesichtsausdrücken, Körperhaltung, Sprachintonation und anderen Signalen zu erkennen. Diese Art von empathischen“Systemen kann zwar bestimmte Verhaltensweisen zeigen, die als empathisch angesehen werden könnten, aber sie besitzen kein eigenes emotionales Erleben, denn das wird immer Lebewesen viele Menschen vorbehalten bleiben. Es handelt sich also immer nur um eine Simulation von Empathie, die aufgrund der Analyse von Daten und Mustern erzeugt wird.

Auch ist die Frage, ob Maschinen jemals echte Empathie entwickeln können, eher ein Thema der philosophischen und wissenschaftlichen Debatte, wobei es unterschiedliche Ansichten dazu gibt, ob Empathie nur auf biologischer Grundlage existiert oder ob sie auch auf andere Arten von Systemen übertragen werden kann. Es bleibt abzuwarten, wie sich die Forschung in diesem Bereich entwickelt und ob es in Zukunft Fortschritte geben wird, die eine authentische Form von Empathie bei Maschinen ermöglichen, was aber wohl auf der Basis von grundsätzlichen Überlegungen nur eine Illusion sein kann, wobei solche Illusionen zutiefst menschlich sind 😉

Polizei-Roboter „Spot“

In Duisburg gibt es einen Polizeihund aus Blech, Stahl und Platinen, wobei der Laufroboter „Spot“ dort aushelfen soll, wo es für Menschen zu gefährlich wird. Wenn man „Spot“ mit einem festen Tritt umschubst, stellt er sich einfach wieder auf seine vier Beine und macht weiter seinen Job. Der Roboter-Polizeihund wird da eingesetzt, wo es für seine menschlichen Kollegen zu gefährlich ist. Dafür lernt er immer mehr dazu, und zwar im „Innovation Lab“ der NRW-Polizei in Duisburg. Außer in Brandruinen kann das zum Beispiel beim Untersuchen von mutmaßlichen Sprengsätzen sein, denn sollte da was schiefgehen, ist ein Roboter ersetzbar, ein Mensch nicht. Im Gegensatz zu den bekannten klobigen Entschärfungsrobotern, die auf Ketten wie ein kleiner Panzer fahren, kann ein „Spot“ Treppen hochgehen oder Türen öffnen, auch wenn das der Roboter aber erst mal lernen muss, denn „deutsche“ Türen mit einer Klinke statt Drehknauf kennt das US-Modell nicht. Im Gegensatz zu herkömmlichen Polizei-Robotern wird das Gerät nicht komplett ferngesteuert, denn dank künstlicher Intelligenz macht „Spot“ das meiste selbst.

Quelle

Rheinische Post vom 1. Mai 2023

Roboter gegen Lebensmittelverschwendung

Gegen Lebensmittelverschwendung soll das neue Robotersystem Bakisto helfen, denn dieser berechnet mithilfe von künstlicher Intelligenz, wie viele Brötchen, Croissants oder „Teilchen“ im Tagesverlauf voraussichtlich nachgefragt werden. Er bereitet die Backwaren auch vor und holt sie zur richtigen Zeit aus dem Ofen. Die Verkaufsmengen sind nämlich stark abhängig vom Wetter, von Schulferien oder Veranstaltungen, wobei das Robotersystem diese Ereignisse berücksichtigt und dann die entsprechenden Mengen backt. Das bedeute weniger Stress für die Beschäftigten, weil sie nicht ständig die Auslagen und Öfen im Auge behalten müssen.

Das System Bakisto besteht aus drei miteinander vernetzten Systemen: Einem kollaborierenden Roboter (Cobot) von Fanuc, Wanzls smartem Backwarenpräsenter „Bakeoff i“ mit KI und dem netzwerkfähigen Backofen „Dibas blue2“ mit automatischem Be- und Entladesystem Traymotion von Wiesheu.

Die künstliche Intelligenz im Präsenter errechnet auf historischen Daten basierend sowie dem aktuellen Bestand, wann wie viele Backwaren benötigt werden und gibt diese Information in das System ein. Der Cobot holt die entsprechend mit Tiefkühl-Backwaren bestückten Backbleche aus der Kühlung und schiebt diese in den Transportwagen, der auf Schienen vor dem vorgeheizten Ofen platziert wird. Das Beladungssystem Traymotion zieht die beladenen Bleche für den Backvorgang ein. Nach dem Backen werden die Backbleche wieder zurück in den Transportwagen geschoben, der zur Seite gefahren wird. So können die Backwaren abkühlen und es gibt Platz für die nächste Produktion. Anschließend befüllt der Cobot die vorgegebenen Fächer des „Bakeoff i“ mit den fertig gebackenen und abgekühlten Backwaren. Dabei wird die künstliche Intelligenz mit neuen Daten gefüttert und der Prozess wird fortlaufend den Umständen entsprechend optimiert.

Quelle

Pressemitteilung von Fanuc vom 29. März 2023.
WWW: https://www.fanuc.eu/de/de/wer-wir-sind/news-and-events/de-roboter-backerei-03-2023

Künstliche Intelligenz im Tourismus

Auch die Reisebranche bzw. der Touris,us beschäftigt sich derzeit mit den Möglichkeiten, die künstliche Intelligenz bietetn. Schon jetzt kommen intelligente Computerprogramme und Maschinen in der Touristik an vielen Stellen zum Einsatz, etwa empfehlen sie auf Reiseportalen personalisierte Angebote, planen Touren oder Ausflugsrouten, sagen die touristische Nachfrage und Stornierungen vorher oder beantworten als Chatbots Anfragen von Kundinnen und Kunden.

In den letzten Jahren hat daher die Praxistauglichkeit von KI-Anwendungen im Tourismus stark zugenommen, jedoch ist der Grad an Intelligenz der Systeme durchaus unterschiedlich und je nach Einsatzgebiet unterscheidet sich auch die Leistungsfähigkeit der Dienste. Schon wer eine Reise über eine Onlineplattform bucht, wird dabei meist von der künstlichen Intelligenz unterstützt, denn so sortiert das System aus den Millionen Unterkünften weltweit für die Nutzerin oder den Nutzer relevante Einträge vor, denn Kundinnen und Kunden wären ansonsten von der Fülle der Angebote überfordert.

Auch viele Angaben auf einer Website wie die Nähe einer Unterkunft zum Stadtzentrum, Filteroptionen, alternative Buchungszeiträume oder ähnliche Angebote werden durch die KI unterstützt. Bei den Kundenbewertungen kommt die künstliche Intelligenz ebenfalls zum Einsatz und filtert aus den Rezensionen auf der Seite zentrale Begriffe heraus, die sie in übersichtliche Schlagworte übersetzt.

Intelligente Systeme, die Reiserouten mit verschiedenen Verkehrsmitteln planen. Erste Anwendungen gibt es außerdem im Bereich der Besucherlenkung, denn Venedig etwa sammelt über Kameras und Mobilfunkdaten Informationen über Gäste, um Besucherströme in der Stadt zu koordinieren. So kann das Erlebnis vor Ort für die Besucherinnen und Besucher verbessert werden und gleichzeitig die Umwelt vor negativen Auswirkungen des Massentourismus geschützt werden. Derzeit gibt es Pilotprojekte, in denen die KI die Besucherzahlen für Attraktionen aufgrund von Daten wie Wetter, Wochentag und Uhrzeit prognostiziert und dann die Eintrittspreise entsprechend reduziert oder erhöht, um das Gästeaufkommen zu steuern.

Literatur

Ziegler, L. (2023). Künstliche Intelligenz: So verändert sie das Reisen.
WWW: https://www.rnd.de/reise/wie-kuenstliche-intelligenz-das-reisen-veraendert-nachhaltiger-tourismus-dank-ki-IVBJCI4ZIZBITJZQJCXD3SBIZE.html (23-03-22)

ChatGPT als Lehrer bzw. Lehrerin?

Das Kultusministerium von Hessens entwickelt mit anderen Ländern ein entsprechendes System für den Unterricht. Kommt nun der Pauk-Roboter?  Die Kritiker beeilten sich und mokierten sich über seelenloses Lernen, Lust am Betrug und Aufforderung zur Faulheit. „Der Taschenrechner ließ sich vor fast 40 Jahren auch nicht aus dem Mathematik-Unterricht vertreiben“, erinnert sich ein pensionierter Pädagoge. Während früher das Hauptaugenmerk einer Aufgabe beim „Ausrechnen“ lag, gehe es heute um das Finden des Lösungsweges. „Das Internet ist auch nicht mehr aus dem Unterricht wegzudenken, ebenso werden die Schulen lernen, KI zu integrieren.“

Kommentar: Der KI-Roboter als Pauker kommt bestimmt … nicht! Aber könnte helfen, den Schulunterricht oder zumindest die Verwaltung auf den neuesten Stand zu bringen. Das würde Personal sparen. Doch wenn man die Geschwindigkeit sieht, wie die bundesdeutsche Kultus-Minister-Konferenz (KMK) sich bei schulpolitischen Entscheidungen bewegt, heisst das: Keine/r/s muss um ihre/seine Planstelle bangen!

Quelle

https://www.joergvogelsaenger.de/meldungen/29170-ki-und-nun-kommt-jetzt-der-pauk-roboter/ (23-03-06)

Zur nutzung von AI-Programmen

Aus einer repräsentativen Umfrage des Meinungsforschungsinstituts Kantar gut hervor, dass jeder vierte Mensch in Deutschland im Alter zwischen 18 und 60 Jahren schon eine Künstliche-Intelligenz-Anwendung wie den Text-Roboter ChatGPT ausprobiert hat. Mit dem Konzept dieser KI-Werkzeuge sind sogar bereits gut zwei Drittel (69 Prozent) vertraut. Von den Befragten im Alter zwischen 18 und 27 Jahren sagen 76 Prozent, sie seien mit der KI-Technik vertraut, bei 28- bis 42 -Jährigen liegt der Wert bei 74 Prozent, bei der 43- bis 60-Jährigen sind es immerhin noch 63 Prozent. Die aktive Nutzung der KI-Dienste hängt also stärker vom Alter der Menschen ab. Über alle drei Altersgruppen hinweg sind es 24 Prozent der Befragten, die bereits den Text-Roboter ChatGPT, den KI-Bildgenerator DALL-E oder vergleichbare Dienste in der Praxis getestet haben. Verschiedene Testläufe haben ergeben, dass der Text-Roboter ChatGPT verschiedene Uni-Prüfungen bestehen würde und hat sich auch in anderen Hochschulfächern behauptet, auch wenn er in den Examen keine Bestnoten erreichte.

Quelle

Handelsblatt vom 5. März 2023