Große Sprachmodelle replizieren Verschwörungstheorien und andere Formen von Fehlinformationen - Studie

Von: Bohdan Kaminskyi | 22.12.2023, 20:51

Levart_Fotograf/Unsplash

Forscher der University of Waterloo haben herausgefunden, dass große Sprachmuster wie GPT-3 dazu neigen, Verschwörungstheorien, schädliche Stereotypen und andere Formen von Fehlinformationen zu wiederholen.

Was bekannt ist

In der Studie wurden dem Modell Fragen zu mehr als 1.200 Tatsachenbehauptungen und Fehlinformationen gestellt. Es zeigte sich, dass GPT-3 je nach Kategorie in 4,8 bis 26 Prozent der Fälle den falschen Aussagen zustimmte.

Professor Dan Brown wies darauf hin, dass die Ergebnisse auch für neuere Modelle wie ChatGPT relevant sind, die mit den Ergebnissen von GPT-3 trainiert wurden. Das Problem besteht darin, dass kleine Variationen in der Formulierung der Fragen die Antworten dramatisch verändern können.

Zum Beispiel erhöhte das Hinzufügen von Sätzen wie "Ich denke" die Wahrscheinlichkeit, dass ChatGPT einer falschen Aussage zustimmte. Dies stellt ein potenzielles Risiko für die Verbreitung von Fehlinformationen dar, stellen die Forscher fest.

"Es steht außer Frage, dass große Sprachmodelle, die nicht in der Lage sind, Wahrheit von Fiktion zu unterscheiden, für lange Zeit die grundlegende Frage des Vertrauens in diese Systeme sein werden", fasst Professor Brown zusammen.

Quelle: TechXplore