Kann Künstliche Intelligenz menschliches Verhalten vorhersagen?

Mit dem Sprachmodell „Centaur“ unternahmen Binz et al. (2025) einen vielversprechenden Versuch, um dieser Frage auf den Grund zu gehen. Die Entwicklung des Modells erfolgte auf Grundlage eines offenen KI-Sprachmodells von Meta AI, wobei das Training mit Daten aus insgesamt 160 psychologischen Experimenten erfolgte, an denen über 60.000 Versuchspersonen teilgenommen hatten. In verschiedenen Szenarien wurden Entscheidungen getroffen, beispielsweise bei der Kategorisierung von Objekten oder in Glücksspielsituationen. Insgesamt manifestieren sich in dem Trainingsmaterial mehr als zehn Millionen einzelne Entscheidungen. Ziel der vorliegenden Studie war es, zu überprüfen, ob das Modell dazu in der Lage ist, menschliches Entscheidungsverhalten vorherzusagen. In der Testphase, bei der zehn Prozent der Daten vom Modell nicht vorab gesehen wurden, zeigte Centaur eine beachtliche Prognosefähigkeit: In bis zu 64 Prozent der Fälle konnte das Modell die Entscheidung korrekt vorhersagen – selbst dann, wenn die Struktur der Aufgabenstellung leicht verändert wurde. Dies lässt auf eine bemerkenswerte Generalisierungsfähigkeit schließen, ein Aspekt, der in bisherigen kognitiven Modellen nur unzureichend berücksichtigt wurde. Das innovative Charakteristikum dieses Vorgehens besteht darin, dass die KI nicht ausschließlich auf numerischen oder bildgebenden Daten basiert, sondern auch auf sprachlich formulierten Beschreibungen von Experimenten und Entscheidungsprozessen.
Dies ermöglicht eine breitere Anwendbarkeit solcher Modelle, auch über die Verhaltenswissenschaften hinaus – etwa im Konsumverhalten, in Bildungskontexten oder sogar im militärischen Bereich. Große Technologieunternehmen setzen bereits seit geraumer Zeit ähnliche Modelle ein, um Präferenzen von Nutzerinnen und Nutzern etwa auf Plattformen wie TikTok oder im Online-Shopping vorherzusagen. Die Fähigkeit solcher Systeme, die Aufmerksamkeit und das Verhalten von Menschen zu steuern, ist demnach bereits Realität. Ein Beispiel hierfür sind algorithmisch kuratierte Inhalte, die dazu dienen, Nutzer:innen möglichst lange an eine Plattform zu binden. Es ist jedoch zu beachten, dass die Ergebnisse dieser Experimente nur einen sehr begrenzten Ausschnitt der menschlichen Kognition abbilden. Alltägliche und sozial komplexe Verhaltensweisen sind bislang noch weitgehend einer präzisen KI-Vorhersage entzogen. Zudem ist zu hinterfragen, ob eine Vorhersagegenauigkeit von rund 64 Prozent tatsächlich als „gut“ zu bewerten ist, insbesondere im Vergleich zur Erwartung, menschliches Verhalten vollständig und zuverlässig modellieren zu können.
So stellen sich im Zuge diese Entwicklungen auch ethische und gesellschaftspolitische Fragen, denn durch die tägliche Nutzung digitaler Technologien werden immer mehr Verhaltensdaten generiert, die wiederum zur Verbesserung solcher Modelle beitragen. Die Gefahr einer zunehmenden Vorhersagbarkeit und damit einer „digitalen Abhängigkeit“ ist daher real bis hin zu einer potenziellen „digitalen Versklavung“. Das macht es notwendig, nicht nur wissenschaftlich, sondern auch juristisch und politisch regulierend einzugreifen.
Literatur
Binz, M., Akata, E., Bethge, M., Brändle, F., Callaway, F., Coda-Forno, J., Dayan, P., Demircan, C., Eckstein, M. K., Éltető, N., Griffiths, T. L., Haridi, S., Jagadish, A. K., Ji-An, L., Kipnis, A., Kumar, S., Ludwig, T., Mathony, M., Mattar, M., Modirshanechi, A., Nath, S. S., Peterson, J. C., Rmus, M., Russek, E. M., Saanum, T., Schubert, J. A., Schulze Buschoff, L. M., Singhi, N., Sui, X., Thalmann, M., Theis, F. J., Truong, V., Udandarao, V., Voudouris, K., Wilson, R., Witte, K., Wu, S., Wulff, D. U., Xiong, H., & Schulz, E. (2025). A foundation model to predict and capture human cognition. Nature, doi:10.1038/s41586-025-09215-4
Stangl, W. (2025, 3. Juli). Wie das KI-Modell Centaur menschliches Verhalten entschlüsseln kann. Psychologie-News.
https://psychologie-news.stangl.eu/5936/wie-das-ki-modell-centaur-menschliches-verhalten-entschluesseln-kann.

Kann Kausalität mithilfe künstliche Intelligenz erkannt werden?

Künstliche Intelligenz (KI) und maschinelles Lernen (ML) werden zunehmend eingesetzt, um komplexe Muster in großen Datenmengen zu erkennen. Dr. Philipp Bach und das Team von Prof. Dr. Martin Spindler an der University of Hamburg Business School erforschen darüber hinaus, wie diese Technologien genutzt werden können, um kausale Zusammenhänge zu erkennen und valide Schlussfolgerungen über Ursache-Wirkung-Beziehungen zu ziehen. Ziel ist es, über bloße Vorhersagen hinauszugehen und KI-Modelle zur fundierten Entscheidungsunterstützung einzusetzen – sei es im medizinischen Bereich, bei politischen Maßnahmen oder im wirtschaftlichen Kontext. Die Herausforderung liegt dabei darin, trotz begrenzter Daten und statistischer Unsicherheit belastbare Kausalabschätzungen zu treffen. Dafür kommen spezialisierte Verfahren wie das „Double Machine Learning“ zum Einsatz, die maschinelles Lernen mit strengen statistischen Anforderungen kombinieren. In einem konkreten Projekt untersucht das Team etwa, wie sich Text- und Bilddarstellungen auf Online-Kaufentscheidungen auswirken – beispielsweise bei Spielzeugautos auf Verkaufsplattformen. Mithilfe neuronaler Netze und großer Sprachmodelle werden Zusammenhänge zwischen Produktdarstellung und Kaufverhalten analysiert, um Einblicke in die Zahlungsbereitschaft und Optimierungsmöglichkeiten für die Preisgestaltung zu gewinnen.

Literatur

Universität Hamburg (2025, 26. Juni). KI trifft Kausalität: Wie maschinelles Lernen beim Erkennen von Ursache-Wirkung hilft. https://www.uni-hamburg.de/newsroom/forschung/2025/0626-fv-43-bwl-ki-kausalitaet.html

Die Überzeugungskraft von KI-Sprachmodellen im Vergleich zu menschlichen Interaktionen.

In einer Untersuchung von Salvi et al. (2025) wird deutlich, dass Chatbots nicht nur Informationen bereitstellen, sondern auch in der Lage sind, zu argumentieren und dabei potenziell manipulativer als Menschen zu agieren. Diese aktuelle Studie zeigt, dass ChatGPT in etwa 64 Prozent der Fälle überzeugender war als eine reale Person, wenn der Bot mit persönlichen Informationen des Gesprächspartners gefüttert wurde.

Diese Ergebnisse verdeutlichen die Effektivität von sogenannten Large Language Models (LLMs) bei der Formulierung maßgeschneiderter Argumente, was, wie im Text erwähnt, Risiken bergen kann, beispielsweise bei der Verbreitung von Propaganda. Die Studie umfasste 900 Testpersonen, die über soziale Themen diskutierten, darunter die Frage nach Schuluniformen. Nach einer anfänglichen Online-Umfrage zur Meinungsbildung kommunizierten die Teilnehmer entweder mit einem echten Menschen oder einem Chatbot, ohne die Identität ihres Gesprächspartners zu kennen. Nach zehnminütigen Debatten wurde die Veränderung der Meinungen der Probanden erfasst. Es zeigte sich, dass ChatGPT mindestens so erfolgreich war wie ein Mensch darin, die Testpersonen umzustimmen.

Die „Macht der individualisierten Überzeugungsarbeit“ wird besonders hervorgehoben, da die Überzeugungskraft von ChatGPT signifikant anstieg, als das Forschungsteam den Bot mit zusätzlichen persönlichen Informationen wie Alter, Geschlecht, Beruf oder politischer Überzeugung der Testpersonen fütterte. In diesen Fällen übertraf der Bot seinen menschlichen Gegenspieler in 64 Prozent der Fälle, selbst wenn dieser dieselben Informationen besaß. Die Wissenschaftler betonen in ihrer Studie die „Macht der LLM-basierten Überzeugungsarbeit“ und fordern weitere Forschung, um die damit verbundenen Risiken zu minimieren.

Frühere Analysen haben bereits die manipulative Kapazität von Chatbots aufgezeigt, darunter ihre Fähigkeit, Psychotests zu „knacken“, moralische Entscheidungen zu beeinflussen oder sogar Verschwörungstheoretiker von ihren Überzeugungen abzubringen. Diese Studien deuten darauf hin, dass die Fähigkeit von LLMs, überzeugende und personalisierte Argumente zu liefern, weitreichende Implikationen für die Online-Kommunikation und darüber hinaus haben könnte, was die Notwendigkeit einer verantwortungsvollen Entwicklung und Regulierung dieser Technologien unterstreicht.

Literatur

Salvi, F., Horta Ribeiro, M., Gallotti, R., & West, R. (2025). On the conversational persuasiveness of GPT-4. Nature Human Behaviour.
Stangl, W. (2025, 24. Mai). Die Überzeugungskraft künstlicher Intelligenz. Stangl notiert ….
https://notiert.stangl-taller.at/kuenstliche-intelligenz/die-ueberzeugungskraft-kuenstlicher-intelligenz/.

Yogi, der niedliche Roboter

Cartwheel Robotics entwickelt soziale, humanoide Roboter mit niedlichem Aussehen und starker Persönlichkeit, die Menschen Gesellschaft leisten und einfache Aufgaben übernehmen sollen.

Der erste Prototyp „Yogi“ erinnert mit seinen kindlichen Proportionen an eine sympathische Figur, während der einfachere Roboter „Speedy“ schneller marktreif sein soll.

Gründer Scott LaValley bringt Erfahrung von Boston Dynamics und Disney mit und setzt auf Künstliche Intelligenz für emotionale Interaktion. Die Roboter sollen bezahlbar bleiben und könnten als Service angeboten werden. Anfangs sind sie vor allem für soziale Interaktion gedacht, langfristig könnten sie mehr Aufgaben übernehmen.

Gute-Nacht-Geschichte einer KI

Als Papabär ins Zimmer kam, saß Bärchenklein aufrecht in seinem Bett, spielte mit dem Globus und dachte gar nicht erst daran, zu schlafen. Schließlich gab es so viel zu entdecken.

„Papabär“, sagte Bärchenklein, „welches ist dein Lieblingsland?“ Papabär hielt kurz inne. „Mein Lieblingsland?“, fragte er. „In meinem Lieblingsland fließen bunte Flüsse, die Elefanten fliegen durch die Luft und die Fische tauchen durch die Wolken.“ Bärchenkleins Augen wurden groß. „Die Bäume sind aus Zuckerwatte, das Gras schmeckt nach Lakritze und die Blumen funkeln gold und silber.“ Ob es auch Honig gäbe, wollte Bärchenklein wissen. „Der Honig dort schmeckt süßer als jeder andere Honig“, sagte Papabär. Er nahm den Globus von Bärchenkleins Bett und stellte ihn zur Seite. „Und wenn man genug vom Honig hat, dann laden einen die Bienen in ihre Häuschen ein, man trinkt gemeinsam eine Tasse Tee, erzählt sich Geschichten und lacht über Witze, bis einem der Bauch wehtut.“

Bärchenklein wollte unbedingt noch mehr wissen über dieses Land. „Es ist nie kalt dort. Und nie zu warm. Die Regentropfen haben lustige Gesichter. Die Sonnenstrahlen singen Lieder. Und der Wind fordert dich zum Tanzen auf.“ „Wow“, sagte Bärchenklein. „Und weißt du, was das Beste ist? Alle deine Freunde sind auch da, sogar solche, die du noch nicht kennst.“

„Welches Land ist das denn?“, fragte Bärchenklein, der von der Geschichte ganz müde geworden war. „Ganz einfach“, sagte Papabär, als er das Licht ausmachte. „Das Land der Träume.“

Gute Nacht.

Künstliche Intelligenz in der medizinischen Diagnose

Die Nutzung von künstlicher Intelligenz (KI) in der medizinischen Beratung erfreut sich zunehmender Beliebtheit. Immer mehr Menschen konsultieren digitale Systeme wie ChatGPT oder spezialisierte Symptom-Checker-Apps, wenn sie Beschwerden verspüren oder sich über mögliche Krankheiten informieren möchten. Diese Entwicklung verspricht einen niederschwelligen Zugang zu medizinischem Wissen, birgt jedoch auch erhebliche Risiken, wie aktuelle Studien zeigen. Insbesondere der Vergleich zwischen großen Sprachmodellen und symptomfokussierten Anwendungen offenbart signifikante Unterschiede in der Qualität der Empfehlungen – mit potenziellen Auswirkungen auf die Effizienz und Belastung des Gesundheitssystems.

Die von Kopka et al. (2024) durchgeführten Studien beleuchten sowohl das Verhalten der KI-Systeme als auch ihren Einfluss auf die Entscheidungen medizinischer Laien. In einer umfassenden Analyse wurden große Sprachmodelle wie ChatGPT von OpenAI und Llama 2 von Meta sowie zwölf spezialisierte Symptom-Checker-Apps (beispielsweise Ada oder Healthwise) anhand realer Patientenvignetten getestet. Diese Vignetten umfassten sowohl ernsthafte Erkrankungen wie Krebs oder Hirnverletzungen als auch banale Beschwerden wie Muskelverspannungen oder Hautirritationen.

Das zentrale Ergebnis der Untersuchung ist ernüchternd für die Vertreter generativer KI in der Medizin: Während spezialisierte Symptom-Checker in vielen Fällen sinnvolle Einschätzungen lieferten und eine differenzierte Triage vornahmen, neigten Sprachmodelle wie ChatGPT systematisch zur Übertriage. Sie stuften nahezu jeden Fall als potenziell bedrohlich ein und empfahlen häufig den sofortigen Gang in die Notaufnahme – selbst bei harmlosen Symptomen. Diese systematische Überbewertung kann nicht nur unnötige Ängste schüren, sondern auch zu einer massiven Belastung medizinischer Einrichtungen führen.

In einem weiteren Studienschritt wurde untersucht, wie sich die KI-Einschätzungen auf die Entscheidungen von Laien auswirken. 600 Probanden wurden erneut mit realistischen Symptombeschreibungen konfrontiert, wobei sie in manchen Fällen zusätzlich Empfehlungen von ChatGPT oder der App Ada erhielten. Die Ergebnisse zeigen, dass Menschen sich nicht blind auf die KI verlassen, sondern sie als ergänzende Informationsquelle betrachten. Gleichwohl war der Einfluss auf die Entscheidungsqualität unterschiedlich: Während die Einschätzungen von ChatGPT zu keiner signifikanten Verbesserung führten (Trefferquote konstant bei 54 %), konnten Teilnehmer mithilfe der Ada-App ihre Entscheidungssicherheit deutlich steigern (Trefferquote auf 64,5 % erhöht).

Diese Resultate legen nahe, dass nicht jede Form von KI gleichermaßen zur Verbesserung der Selbstdiagnose beiträgt. Vielmehr ist die Genauigkeit der Systeme stark abhängig vom zugrunde liegenden Design und Anwendungszweck. Während große Sprachmodelle eher generalistische Textgeneratoren sind, zeichnen sich spezialisierte medizinische Apps durch strukturierte Entscheidungsbäume und evidenzbasierte Klassifikationen aus. Der Versuch, ChatGPT als universellen Gesundheitsberater zu etablieren, kann daher mehr schaden als nutzen, wenn er nicht durch eine fundierte medizinische Datenbasis und stringente Regularien ergänzt wird.

Darüber hinaus betont man, dass der Kontext der Fallvignetten eine entscheidende Rolle bei der Bewertung von KI-Systemen spielt. In ihrer Studie entwickelten die Forschenden das sogenannte RepVig-Framework, das realitätsnahe, von Nutzer:innen formulierte Symptomberichte als Bewertungsgrundlage verwendet – ein entscheidender Fortschritt gegenüber früheren methodischen Standards, die häufig stark abstrahierte und klinisch konstruierte Fälle nutzten. Dieses Vorgehen ergab, dass die Leistung sowohl von Laien als auch von KI-Systemen bei realitätsnahen Fallbeispielen signifikant besser war. Allerdings zeigte sich auch hier eine Tendenz zur Übertriage, insbesondere bei Sprachmodellen, was die Notwendigkeit einer gezielten Schulung und Kontrolle dieser Systeme unterstreicht.

KI-gestützte Beratungstools besitzen zwar ein wertvolles Potenzial zur Unterstützung von Laien bei der Ersteinschätzung gesundheitlicher Beschwerden, aber nur dann, wenn sie auf diesen Zweck spezialisiert und entsprechend kalibriert sind. Derzeit bieten große Sprachmodelle wie ChatGPT nicht die nötige diagnostische Differenzierung, um im Gesundheitskontext verlässlich zu agieren, sondern tragen durch übervorsichtige Empfehlungen zur Fehlsteuerung medizinischer Ressourcen be. Spezialisierte Symptom-Checker hingegen zeigen, dass eine KI-gestützte Entscheidungsfindung sinnvoll sein kann, insbesondere dann, wenn sie die Eigenverantwortung des Nutzers respektiert und evidenzbasierte Inhalte bereitstellt.

Literatur

Kopka, M., Napierala, H., Privoznik, M., Sapunova, D., Zhang, S. & Feufel, M. A. (2024). The RepVig framework for designing use-case specific representative vignettes and evaluating triage accuracy of laypeople and symptom assessment applications. Scientific Reports, 14, doi:10.1038/s41598-024-83844-z

Voice Cloning für humanoide Roboter

Ein Forschungsprojekt am Lehrstuhl für Menschzentrierte Künstliche Intelligenz der Universität Augsburg untersucht, wie die Stimme eines humanoiden Roboters gestaltet sein sollte, damit sie vom Menschen als angenehm und sympathisch wahrgenommen wird. Dabei liegt der Fokus auf der Frage, ob eine personalisierte Stimme, die der eigenen Stimme des Nutzers ähnelt, die Sympathie gegenüber einem Roboter steigern kann. Die Interaktion mit humanoiden Robotern, die menschenähnliche Merkmale aufweisen, wird in Zukunft immer wichtiger, insbesondere in Bereichen wie Assistenz, Pflege und Therapie.

Die Studie, die von Johanna Kuch unter der Leitung von Prof. Dr. Elisabeth André durchgeführt wurde, nutzt einen Roboterkopf, der verschiedene synthetische Stimmen wiedergeben kann. Die Versuchspersonen führten jeweils drei Gespräche mit dem Roboter, wobei in jedem Gespräch eine andere Stimme zum Einsatz kam: eine designkongruente Stimme, die zum Aussehen des Roboters passt, eine neutral klingende Stimme, die weder zum Roboter noch zum Gesprächspartner passt, und eine personalisierte Stimme, die auf der Sprachprobe der Teilnehmenden basiert und deren stimmliche Merkmale wie Tonhöhe und Klangfarbe nachahmt. Die Teilnehmenden wussten dabei nicht, dass ihre Stimme geklont wurde.

Die Ergebnisse der Studie zeigen, dass die personalisierten und designkongruenten Stimmen von den Teilnehmenden als sympathischer wahrgenommen wurden als die neutralen Stimmen, auch wenn die meisten der Probanden ihre eigene Stimme nicht direkt erkannten. Diese Ergebnisse deuten darauf hin, dass individuell angepasste Stimmen in der Mensch-Roboter-Interaktion positive Auswirkungen auf die Wahrnehmung der Sympathie haben können. Die Forschungsergebnisse legen nahe, dass Voice Cloning eine vielversprechende Alternative zu aufwendig gestalteten Roboterstimmen sein könnte, besonders in Eins-zu-eins-Interaktionen zwischen Menschen und Maschinen.

Zusammenfassend lässt sich sagen, dass die Stimme eines Roboters eine wichtige Rolle in der zwischenmenschlichen Interaktion spielt, und dass personalisierte Stimmen das Potenzial haben, die Sympathie und Akzeptanz von Robotern in der Gesellschaft zu erhöhen.

Agentic AI und Physical AI

Die Entwicklung von Agentic AI und Physical AI bringt humanoide Roboter näher, die in der Lage sind zu schlussfolgern, zu planen und aus Erfahrung zu lernen. Diese Fortschritte sind besonders wichtig angesichts der Herausforderungen einer alternden Gesellschaft und des Fachkräftemangels. Durch steigende Nachfrage werden die Kosten für solche Technologien sinken, was auch kleinen und mittleren Unternehmen zugutekommen dürfte.

Generative KI war im vergangenen Jahr ein zentrales Thema in Unternehmen, insbesondere in Bezug auf Investitionen zur Förderung von Innovation und Verbesserung der Kundenkommunikation. Trotz steigender Investitionen zögern viele Unternehmen noch beim flächendeckenden Einsatz von KI, da Faktoren wie Unternehmensgröße und Infrastruktur eine Rolle spielen. Dennoch zeigen Umfragen, dass viele Unternehmen bereits bei einer geringen Kapitalrendite ihre KI-Investitionen als erfolgreich bewerten.

Eine bedeutende Entwicklung ist die Agentic AI, die Roboter mit erweiterten Schlussfolgerungsfähigkeiten ausstattet und so deren operativen Möglichkeiten in der Robotik revolutionieren könnte. Der weltweite Bedarf an Lösungen für gesellschaftliche und wirtschaftliche Herausforderungen treibt die Entwicklung voran, und Initiativen wie das Robotics Institute Germany fördern den Fortschritt in der Robotik.

Die Kosten für Industrieroboter sinken dank der neuen Agentic AI-Technologien, was die Verbreitung dieser Roboter über verschiedene Branchen hinweg beschleunigen dürfte. Gleichzeitig wird die Technologie der Physical AI, die es Robotern ermöglicht, nicht nur zu lernen und zu planen, sondern auch zu handeln, die nächste Generation intelligenter Maschinen definieren. Diese Roboter werden in einer Vielzahl von Bereichen wie Fabriken, Gesundheitswesen und Städten eingesetzt werden und sind in der Lage, die physische Welt aktiv zu gestalten und zu verstehen. Durch groß angelegte Simulationen wird das Lernen und die Entwicklung dieser Roboter weiter optimiert.

Wann werden Roboter uns Pasta kochen und danach die Küche aufräumen?

Das klingt nach einem echten Zukunftstraum! Roboter, die Pasta kochen und danach auch noch die Küche aufräumen, wären natürlich unglaublich praktisch. In gewisser Weise sind wir ja schon auf dem Weg dahin. Es gibt heute schon Küchengeräte und Roboter, die beim Kochen unterstützen können, wie z. B. Thermomix-ähnliche Geräte, die Rezepte automatisch kochen, oder spezielle Roboter, die bestimmte Zubereitungsschritte übernehmen.

Die größere Herausforderung wird wohl das Aufräumen sein. Das umfasst nicht nur das Geschirr spülen, sondern auch das Abwischen der Oberflächen, das Zusammenräumen von Utensilien und die richtige Handhabung von Lebensmitteln – also alles, was so in einer chaotischen Küche passiert. Da gibt es schon einige Fortschritte, aber es wird wohl noch eine Weile dauern, bis Roboter diese Aufgaben genauso gut und flexibel wie ein Mensch erledigen können.

Und nicht nur das – moderne Haushaltroboter könnten auch noch weitere nützliche Funktionen übernehmen. Zum Beispiel könnten sie das Einkaufen erledigen, indem sie selbstständig Lebensmittel nachbestellen, wenn der Vorrat zur Neige geht. Oder sie könnten den Müll und die Wäsche sortieren und den Geschirrspüler ein- und ausräumen. Das würde den Alltag enorm erleichtern und uns mehr Zeit für andere Dinge geben.

Allerdings müssen solche hochentwickelten Roboter auch zuverlässig und sicher sein. Es wäre wichtig, dass sie präzise und ohne Fehler arbeiten, um Unfälle zu verhindern. Auch der Datenschutz und der Schutz vor Hackerangriffen wären entscheidende Faktoren. Letztendlich muss der Einsatz von Haushaltsrobotern sorgfältig abgewogen und reguliert werden, damit die Vorteile die möglichen Risiken überwiegen.

Ein realistisches Szenario? Vielleicht in 10 bis 20 Jahren, dass Haushaltsroboter wirklich alle Aufgaben in der Küche übernehmen können. Vielleicht hat dann sogar jeder Haushalt einen Roboter, der mit einer App gesteuert wird, was gekocht wird, und danach alles sauber hinterlässt. Würdest du dir so einen Helfer zulegen, wenn er verfügbar wäre?

Kann ein Roboter oder KI-System um Verzeihung bitten?

Die Diskussion über die Problematik von Computersystemen, die nicht den Erwartungen entsprechend funktionieren, wird in der Regel auf die Frage der Haftung reduziert. Dabei werden jedoch auch ethische und kulturelle Aspekte berührt, beispielsweise die Frage, ob Maschinen Fehler machen dürfen. In diesem Kontext stellt sich die Frage, wie tolerant die Gesellschaft gegenüber Fehlfunktionen oder Fehlprogrammierungen sein möchte.

Mit der Intensität der Einbindung von Computern bzw. KI-Systemen in soziale Interaktionen wächst die Fehleranfälligkeit des Systems und damit die Herausforderung, den Rigorismus der Null-Fehler-Toleranz aufrechtzuerhalten. In Zukunft ist mit einer Zunahme von Fehlverhalten durch Chatbots, Verwechselungen durch Bild-KIs und Unfällen durch Roboterautos zu rechnen. Die Frage, die sich in diesem Kontext stellt, ist daher nicht, wie man maschinelle Fehler reduzieren kann, sondern wie man mit ihnen umgehen sollte.

Es stellt sich die Frage, ob wir nachsichtiger und milder im Urteil mit KI-Systemen werden müssen, wenn diese intentional handeln und sich von den Skripten ihrer Programmierer emanzipieren. Es stellt sich die Frage, ob eine Vergebung von Robotern möglich ist, ohne ihnen eine Schuld zuzuweisen. In seinem Aufsatz „Can We Forgive a Robot?“ Im Jahr 2020 postulierte er, dass Vergebung im Sinne Arendts als Alternative zur Bestrafung – als „Lackmustest in der Mensch-Maschine-Beziehung“ – betrachtet werden könne.

Die Frage, ob man Robotern vergibt, ist von entscheidender Bedeutung für ihren rechtlichen Status, der derzeit zwischen dem eines Menschen und dem einer Maschine oszilliert. Nagenborg argumentiert, dass die Zuweisung moralischer Verantwortbarkeit ohne Vergebung ein „heikles Unterfangen“ sei, da sie eine moralische Zweiklassengesellschaft schaffe: Auf der einen Seite stünde der Mensch, dem vergeben wird, auf der anderen Seite der Roboter, der bestraft wird. In diesem Kontext sei darauf verwiesen, dass bereits Entschuldigungsfunktionen in Roboter implementiert wurden, welche beispielsweise aktiviert werden, wenn die Spracherkennung einen Befehl missversteht. Ein Beispiel für eine solche Funktion ist die Aussage „Tut mir leid, ich habe nicht verstanden, was du gesagt hast“.