Studie: Künstliche Intelligenz schreibt überzeugendere Tweets als Menschen
Die Nutzer finden Tweets überzeugender, wenn sie von einem KI-gestützten Sprachmodell und nicht von einem Menschen geschrieben wurden.
Was wir wissen
Die Forscher sammelten Twitter-Nachrichten zu 11 verschiedenen wissenschaftlichen Themen, von Impfstoffen und COVID-19 bis hin zu Klimawandel und Evolution. Dann baten sie GPT-3, neue Tweets mit korrekten oder ungenauen Informationen zu schreiben.
Das Team sammelte dann Antworten von 697 Teilnehmern. Sie alle sprachen Englisch und lebten hauptsächlich im Vereinigten Königreich, Australien, Kanada, den USA und Irland. Sie sollten erkennen, welche Tweets von GPT-3 und welche von einem Menschen geschrieben worden waren. Außerdem mussten sie entscheiden, ob die Informationen in dem Post wahr waren.
Das Ergebnis: Die Studienteilnehmer vertrauten der KI eher als anderen Menschen - unabhängig von der Richtigkeit der Informationen.
Die Menschen waren am erfolgreichsten bei der Erkennung von Desinformationen, die von echten Nutzern verfasst wurden. Die von GPT-3 erstellten gefälschten Beiträge waren bei der Täuschung der Umfrageteilnehmer etwas effektiver.
Die Forscher wiesen darauf hin, dass es eine Reihe von Einschränkungen gab, die die Ergebnisse beeinflussten. Zum Beispiel bewerteten die Teilnehmer Tweets ohne Kontext. Sie konnten das Twitter-Profil des Verfassers der Nachricht nicht überprüfen, um deren Authentizität festzustellen.
Die Forscher kehrten den Prozess auch um und baten GPT-3, die Wahrhaftigkeit der Tweets zu bewerten. Es stellte sich heraus, dass das Sprachmodell bei der Bestimmung der Richtigkeit von Nachrichten schlechter abschnitt als Menschen. Bei der Erkennung von Desinformation zeigten Menschen und GPT-3 die gleichen Ergebnisse.
Zusammenfassend glauben die Forscher, dass die beste Strategie gegen Desinformation darin besteht, kritisches Denken zu entwickeln, damit die Menschen selbständig Fakten von Fiktion unterscheiden können.
Quelle: The Verge.