Die Überzeugungskraft von KI-Sprachmodellen im Vergleich zu menschlichen Interaktionen.

In einer Untersuchung von Salvi et al. (2025) wird deutlich, dass Chatbots nicht nur Informationen bereitstellen, sondern auch in der Lage sind, zu argumentieren und dabei potenziell manipulativer als Menschen zu agieren. Diese aktuelle Studie zeigt, dass ChatGPT in etwa 64 Prozent der Fälle überzeugender war als eine reale Person, wenn der Bot mit persönlichen Informationen des Gesprächspartners gefüttert wurde.

Diese Ergebnisse verdeutlichen die Effektivität von sogenannten Large Language Models (LLMs) bei der Formulierung maßgeschneiderter Argumente, was, wie im Text erwähnt, Risiken bergen kann, beispielsweise bei der Verbreitung von Propaganda. Die Studie umfasste 900 Testpersonen, die über soziale Themen diskutierten, darunter die Frage nach Schuluniformen. Nach einer anfänglichen Online-Umfrage zur Meinungsbildung kommunizierten die Teilnehmer entweder mit einem echten Menschen oder einem Chatbot, ohne die Identität ihres Gesprächspartners zu kennen. Nach zehnminütigen Debatten wurde die Veränderung der Meinungen der Probanden erfasst. Es zeigte sich, dass ChatGPT mindestens so erfolgreich war wie ein Mensch darin, die Testpersonen umzustimmen.

Die „Macht der individualisierten Überzeugungsarbeit“ wird besonders hervorgehoben, da die Überzeugungskraft von ChatGPT signifikant anstieg, als das Forschungsteam den Bot mit zusätzlichen persönlichen Informationen wie Alter, Geschlecht, Beruf oder politischer Überzeugung der Testpersonen fütterte. In diesen Fällen übertraf der Bot seinen menschlichen Gegenspieler in 64 Prozent der Fälle, selbst wenn dieser dieselben Informationen besaß. Die Wissenschaftler betonen in ihrer Studie die „Macht der LLM-basierten Überzeugungsarbeit“ und fordern weitere Forschung, um die damit verbundenen Risiken zu minimieren.

Frühere Analysen haben bereits die manipulative Kapazität von Chatbots aufgezeigt, darunter ihre Fähigkeit, Psychotests zu „knacken“, moralische Entscheidungen zu beeinflussen oder sogar Verschwörungstheoretiker von ihren Überzeugungen abzubringen. Diese Studien deuten darauf hin, dass die Fähigkeit von LLMs, überzeugende und personalisierte Argumente zu liefern, weitreichende Implikationen für die Online-Kommunikation und darüber hinaus haben könnte, was die Notwendigkeit einer verantwortungsvollen Entwicklung und Regulierung dieser Technologien unterstreicht.

Literatur

Salvi, F., Horta Ribeiro, M., Gallotti, R., & West, R. (2025). On the conversational persuasiveness of GPT-4. Nature Human Behaviour.
Stangl, W. (2025, 24. Mai). Die Überzeugungskraft künstlicher Intelligenz. Stangl notiert ….
https://notiert.stangl-taller.at/kuenstliche-intelligenz/die-ueberzeugungskraft-kuenstlicher-intelligenz/.


Nachricht ::: Roboter Lexikon ::: Impressum
Datenschutzerklärung ::: © Benjamin Stangl :::

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert