Die Diskussion über die Problematik von Computersystemen, die nicht den Erwartungen entsprechend funktionieren, wird in der Regel auf die Frage der Haftung reduziert. Dabei werden jedoch auch ethische und kulturelle Aspekte berührt, beispielsweise die Frage, ob Maschinen Fehler machen dürfen. In diesem Kontext stellt sich die Frage, wie tolerant die Gesellschaft gegenüber Fehlfunktionen oder Fehlprogrammierungen sein möchte.
Mit der Intensität der Einbindung von Computern bzw. KI-Systemen in soziale Interaktionen wächst die Fehleranfälligkeit des Systems und damit die Herausforderung, den Rigorismus der Null-Fehler-Toleranz aufrechtzuerhalten. In Zukunft ist mit einer Zunahme von Fehlverhalten durch Chatbots, Verwechselungen durch Bild-KIs und Unfällen durch Roboterautos zu rechnen. Die Frage, die sich in diesem Kontext stellt, ist daher nicht, wie man maschinelle Fehler reduzieren kann, sondern wie man mit ihnen umgehen sollte.
Es stellt sich die Frage, ob wir nachsichtiger und milder im Urteil mit KI-Systemen werden müssen, wenn diese intentional handeln und sich von den Skripten ihrer Programmierer emanzipieren. Es stellt sich die Frage, ob eine Vergebung von Robotern möglich ist, ohne ihnen eine Schuld zuzuweisen. In seinem Aufsatz „Can We Forgive a Robot?“ Im Jahr 2020 postulierte er, dass Vergebung im Sinne Arendts als Alternative zur Bestrafung – als „Lackmustest in der Mensch-Maschine-Beziehung“ – betrachtet werden könne.
Die Frage, ob man Robotern vergibt, ist von entscheidender Bedeutung für ihren rechtlichen Status, der derzeit zwischen dem eines Menschen und dem einer Maschine oszilliert. Nagenborg argumentiert, dass die Zuweisung moralischer Verantwortbarkeit ohne Vergebung ein „heikles Unterfangen“ sei, da sie eine moralische Zweiklassengesellschaft schaffe: Auf der einen Seite stünde der Mensch, dem vergeben wird, auf der anderen Seite der Roboter, der bestraft wird. In diesem Kontext sei darauf verwiesen, dass bereits Entschuldigungsfunktionen in Roboter implementiert wurden, welche beispielsweise aktiviert werden, wenn die Spracherkennung einen Befehl missversteht. Ein Beispiel für eine solche Funktion ist die Aussage „Tut mir leid, ich habe nicht verstanden, was du gesagt hast“.