Chat-GPT stellt sich vor

Chat-GPT (Generative Pre-trained Transformer) ist eine Anwendung, die auf menschliche Texteingaben mit einer möglichst sinnvollen Textausgabe reagiert. Sie beantwortet beispielsweise Fragen oder erstellt Texte gemäß Anweisung. Die Qualität der ausgegebenen Texte ist deutlich höher als bei bisherigen KIs und korreliert mit Qualität, Präzision und Konstruktivität der Eingaben des Nutzers. Chat-GPT ist über Web-Browser erreichbar unter der Adresse https://chat.openai.com . Für die Nutzung ist die Erstellung eines Accounts unter Angabe einer E-Mail-Adresse erforderlich. Für seine Antworten greift die Anwendung auf einen Pool aus Daten aus dem Jahr 2021 zurück und verfeinert das gespeicherte Wissen aber auch aus Nutzereingaben, die auf Plausibilität geprüft werden. Die KI ist darauf programmiert, hilfreich, höflich und konstruktiv zu agieren, wobei in ihr einige grundlegende ethische Normen implementiert sind, wie etwa dass durch seine Antworten Menschen nicht zu Schaden kommen. Hinter Chat-GPT steht der Software-Entwickler Sam Altman, dessen Firma OpenAI im Silicon Valley in San Francisco ansässig ist.

Wenn man ChatGPT direkt fragt:

Lieber ChatGPT, könntest Du Dich einmal vorstellen, damit Menschen einmal wissen, was Du genau bist?

Ich bin ChatGPT, ein Sprachmodell, das von OpenAI trainiert wurde. Ich bin in der Lage, natürliche Sprache zu verstehen und zu generieren und kann daher in vielen Anwendungen wie Chatbots, automatischen Textgeneratoren und mehr eingesetzt werden. Ich bin ständig darauf ausgelegt, mein Wissen und meine Fähigkeiten zu verbessern, indem ich auf neue Daten und Anwendungen trainiert werde. Ich bin hier um Ihnen zu helfen, Fragen zu beantworten und Informationen zu bereitstellen.

Kannst du ein bisschen genauer beschreiben, auf welche Quellen du bei deinen Antworte zurückgreifst?

ChatGPT ist ein sogenannter „Transformer“-basierter Sprachgenerator, der auf einer riesigen Menge an Texten trainiert wurde, um natürliche Sprache zu verstehen und zu produzieren. Während des Trainingsprozesses wurde dem Modell eine große Menge an Texten zur Verfügung gestellt, die aus verschiedenen Quellen stammen, wie z.B. Nachrichtenartikel, Bücher, Blogs, soziale Medien und viele mehr. So erlernt das Modell die verschiedenen Schreibstile und die Regeln der Grammatik und des Wortschatzes, sowie die verschiedenen Kontext und Bedeutungen eines Wortes. Durch diesen Prozess wird ChatGPT in der Lage sein, auf eine Vielzahl von Fragen und Anfragen zu antworten und auf unterschiedliche Weise zu schreiben.

Wie wichtig wirst Du eines Tages für uns Menschen sein?

Ich werde wahrscheinlich eine wichtige Rolle in vielen Bereichen spielen, wie zum Beispiel im Kundenservice, in der Produktentwicklung und im Geschäftsprozessmanagement. Ich kann auch dazu beitragen, menschliche Fehler zu reduzieren und die Effizienz in vielen Aufgabenbereichen zu verbessern. Allerdings wird es immer wichtig sein, dass Menschen die Kontrolle behalten und entscheiden, wie und wann ich eingesetzt werden sollte.

Was machst du, wenn Dir Menschen dumme Fragen stellen?

Ich bin programmiert, um auf alle Fragen, die mir gestellt werden, so gut wie möglich zu antworten. Ich habe keine Fähigkeit, Fragen als „dumm“ zu beurteilen. Ich versuche immer, so präzise und hilfreich wie möglich zu antworten, unabhängig davon, wie leicht oder schwierig die Frage ist. Wenn ich eine Frage nicht verstehe oder nicht genug Informationen habe, um sie zu beantworten, werde ich mein Bestes tun, um zu erklären, warum ich das tue und wie ich helfen kann, die Frage zu klären.

Kann es eine sozial kompetente künstliche Intelligenz geben?

Kinder und Jugendliche lernen Soft Skills, die sie später im Leben brauchen werden, und sie hören nicht auf zu lernen, wie sie später im Leben sozial kompetent sein können. Maschinelles Lernen ist die Grundlage, auf der fast alle künstlichen Intelligenzen beruhen, wobei künstliche neuronale Netze darauf trainiert werden können, Muster zu erkennen und sie später auf große weitere Datensätze anzuwenden. Ein sozial intelligenter Computer bzw. seine sozial-emotionale künstliche Intelligenz sollte in der Lage sein, Informationen in sozialen Situationen in Echtzeit zu erkennen und entsprechend auf menschliche Art und Weise zu reagieren. Menschlich bedeutet in diesem Zusammenhang, aus Situationen zu lernen, sich eine Meinung zu bilden und eigenständig Entscheidungen zu treffen. Dies soll z.B. eine produktive Zusammenarbeit zwischen Mensch und Maschine ermöglichen. Wissenschaftler arbeiten an der Entwicklung eines intelligenten Chatbots, d.h. einer künstlichen Intelligenz, die über einen Chat direkt mit Menschen kommunizieren kann, so dass die künstliche Intelligenz die Gefühle des Nutzers einordnen und entsprechend reagieren kann. Neben alltäglichen Aufgaben wie dem Kundenservice kann der Chatbot auch dazu beitragen, Stress und Depressionen bei den Nutzern abzubauen.

Literatur

Stangl, W. (2022, 9. August). Gibt es eine sozial kompetente künstliche Intelligenz? Stangl notiert …
https:// notiert.stangl-taller.at/zeitgeistig/gibt-es-eine-sozial-kompetente-kuenstliche-intelligenz/
https://scilogs.spektrum.de/hirn-und-weg/emotionale-intelligenz/ (22-08-09)

Künstliche Intelligenz in der Medizin

Zum Thema „Künstliche Intelligenz in der Medizin“ hat 1997 der Europarat die weltweit erste internationale Bioethikkonvention veröffentlicht, die vielen Mitgliedstaaten geholfen hat, ethische Standards in der Biomedizin zu formulieren. Auch ging es darum, die Kompatibilität dieser Normen mit denen der Europäischen Menschenrechtskonvention sicherzustellen. 2020 hat der Europarat dann einen strategischen Aktionsplan zu Menschenrechten und Technologien in der Biomedizin erstellt und will sich in den kommenden zwei Jahren intensiv mit Künstliche Intelligenz-Themen im Gesundheitswesen beschäftigen. Der britische Datenethik-Forscher Brent Mittelstadt von der Universität Oxford hat dazu einem Bericht erstellt. Darin wird vor möglichen Auswirkungen von Künstlicher Intelligenz auf Menschen- und Patientenrechte gewarnt, etwa im Hinblick auf Ungleichheiten beim Zugang zu hochwertiger Gesundheitsversorgung oder vor sozialen Vorurteilen, die in die Entwicklung von Künstlichen Intelligenz-Systemen einfließen. Mittelstadt fordert mehr Transparenz bei der Entwicklung und beim Einsatz solcher Technologien im Verhältnis zu medizinischen Fachkräften und Patienten sowie den Schutz der Vertraulichkeit von Patientendaten. Weiterhin schildert der Bericht mögliche Folgen der Künstlichen Intelligenz im Hinblick auf den Verlust von Kompetenzen bei Gesundheitsfachkräften und bei der Verlagerung von Verantwortung. Allerdings kann Künstliche Intelligenz Ärzte darin unterstützen, noch effektiver und effizienter zu arbeiten als bisher.

Literatur

Stangl, W. (2022, 16. Juni). Künstliche Intelligenz in der Medizin. Stangl notiert ….
https:// notiert.stangl-taller.at/allgemein/kuenstliche-intelligenz-in-der-medizin/

Neandertalergehirn für Roboter

Da der Paläogenetiker Svante Pääbo 2009 gemeinsam mit seinem Team das Neandertaler-Genom entschlüsselte, züchtet er nun Mini-Neandertalergehirne, die er in Roboter verpflanzen will. Von der Gehirnmasse der Neandertaler ist heute nichts mehr erhalten, allerdings gibt es im Labor des Institute of Molecular Biotechnology in Wien bereits stecknadelkopfgroße Abkömmlinge des urzeitlichen Vorbilds, die mit der Genschere CRISPR/Cas9 und natürlich dem Wissen über die alte DNA hergestellt wurden.

Die Wissenschaftler setzten dann die Neandertaler-Variante des Gens NOVA1 in menschliche Stammzellen ein, wobei sie die Großhirnrinde der Neandertaler in einer winzig kleinernVersion wachsen ließen, wobei die Organoide wie Popcorn wirken, während die menschlichen Gehirne im Gegensatz eher eine Kugelform besitzen. Außerdem fanden sich im Inneren Strukturen, die sich auch bei Menschen zeigen, die mit neurologischen Defekten zu kämpfen haben. Wenn diese Organoide eines Tages perfek« sind, möchten die Forscher sie in krabbenähnliche Roboter verpflanzen, in der Hoffnung, dass die kleinen Gehirne die Maschinen steuern lernen.

Literatur

https://www.trendsderzukunft.de/forscher-zuechten-neandertaler-gehirne-um-sie-in-roboter-zu-pflanzen/ (21-11-28)

Das Problem des Antropomorphismus bei der Mensch-Roboter-Interaktion

Es wird allgemein angenommen, dass die Anwendung anthropomorpher Designmerkmale die Mensch-Roboter-Interaktion erleichtert, wobei eine beträchtliche Anzahl von Studienergebnissen jedoch in die entgegengesetzte Richtung deutet. Es gibt derzeit keine umfassende gemeinsame Grundlage für die Umstände, unter denen Anthropomorphismus die Interaktion mit Robotern fördert. Roesler et al. 2021) wollen mit dieser Meta-Analyse diese Lücke schließen. Insgesamt wurden 4856 Abstracts gescannt, wobei nach einer umfangreichen Auswertung 78 Studien mit rund 6000 Teilnehmern und 187 Effektgrößen in diese Meta-Analyse aufgenommen wurden. Die Mehrzahl der Studien befasste sich mit Auswirkungen auf die Wahrnehmung von Robotern. Darüber hinaus wurden aber auch Effekte auf einstellungsbezogene, affektive und verhaltensbezogene Aspekte untersucht. Insgesamt wurde eine mittlere positive Effektgröße gefunden, was auf einen positiven Effekt von anthropomorphen Designmerkmalen auf menschenbezogene Ergebnisse hinweist. Eine genauere Betrachtung der untersten Variablenebene ergab jedoch keinen positiven Effekt auf die wahrgenommene Sicherheit, das Einfühlungsvermögen und die Aufgabenleistung. Darüber hinaus deutet die Analyse darauf hin, dass positive Effekte von Anthropomorphismus stark von verschiedenen Moderatoren abhängen, denn etwa war der Anthropomorphismus im Gegensatz zu anderen Anwendungsbereichen eine ständige Erleichterung der sozialen Mensch-Roboter-Interaktion.

Insgesamt zeigte sich durchaus ein positiver Effekt von Anthropomorphismus auf die Wahrnehmung, die Einstellungen, und die affektiven und verhaltensbezogenen Reaktionen von Menschen in ihrer Interaktion mit Robotern, doch spezifischere Teilanalysen des Datensatzes zeigten aber, dass Anthropomorphismus bei Robotern keineswegs ein Universalmittel zur Förderung der Mensch-Roboter-Interaktion darstellt. So konnten keine Belege für positive Effekte von Anthropomorphismus auf die wahrgenommene Sicherheit von Robotern und die Aufgabenleistung bei gemeinsamen Aufgaben gefunden werden, die gerade in Bereichen, in denen Roboter als Werkzeuge benutzt werden, bedeutsam sind, zum Beispiel in Service oder Industrie. Besonders in Bezug auf das Aussehen und die Beschreibung von Robotern haben auch eigene Untersuchungen der ForscherInnen gezeigt, dass eine Ausstattung von Robotern mit menschenähnlichen Merkmalen in aufgabenbezogenen und industriellen Bereichen auch negative Konsequenzen haben kann. Dort kann Anthropomorphismus etwa den Werkzeugcharakter von Robotern verschleiern und damit zu einem geringeren Vertrauen führen.

In Bereichen, in denen Roboter für die Erledigung kollektiver Aufgaben benutzt werden, werden anthropomorphen Robotern als „intelligent“ oder „sympathisch“ erlebt, was aber nicht Hand in Hand mit einer tatsächlich besseren Leistung in der Zusammenarbeit mit Robotern gehen muss. Eine bedeutende Rolle spielt auch die Art der Implementierung anthropomorpher Elemente, denn diese Merkmale zeigen vor allem dann positive Effekte, wenn sie möglichst sinnhaft auf die Aufgabe bezogen gestaltet werden, etwa eine Augenbewegung, die signalisiert, was der Roboter gerade verarbeitet. Das ist besonders für die Gestaltung von Robotern für industrielle Anwendungen und den Servicebereich interessant, denn dort wird die Bedeutung von oberflächlicher Anthropomorphisierung aktuell scheinbar noch überschätzt.

Die Ergebnisse dieser Analyse geben einigen Aufschluss darüber, wie Designmerkmale genutzt werden können, um die Qualität sie Mensch-Roboter-Interaktion zu verbessern.

Literatur

Roesler, E., Manzey, D. & Onnasch, L. (2021). A meta-analysis on the effectiveness of anthropomorphism in human-robot interaction. Science Robotics, doi: 10.1126/scirobotics.abj5425.