Microsofts Chatbot lieferte falsche Informationen zu den Europawahlen

Von: Bohdan Kaminskyi | 18.12.2023, 14:54

Microsoft

Forscher haben herausgefunden, dass der Bing-Chatbot (jetzt Copilot) fehlerhafte Informationen über die jüngsten Wahlen in der Schweiz und in Deutschland gegeben hat. Einem Bericht der Interessengruppe AlgorithmWatch zufolge enthielt fast ein Drittel der Antworten des Tools auf Fragen zu den Wahlen sachliche Fehler.

Was bekannt ist

Die Antworten enthielten insbesondere falsche Daten, Umfrageergebnisse und Verweise auf Kandidaten, die nicht an den Wahlen teilgenommen haben. Bing zitierte oft tatsächliche Quellen, aber die Zahlen, die er anführte, standen im Widerspruch zu den Originaldaten.

Die Forscher stellen fest, dass die Abwehrmechanismen von Bing ungleichmäßig ausgelöst wurden. In 30 Prozent der Fälle waren die Antworten richtig, und in 39 Prozent verweigerte der Chatbot die Antwort. Allerdings machte er schwerwiegende sachliche Fehler, wenn es um Fakten und nicht um Meinungen ging.

Microsoft versicherte, dass es Schritte unternimmt, um die Genauigkeit von KI-Plattformen zu verbessern, insbesondere im Zusammenhang mit Wahlen. Das Risiko von Fehlinformationen durch Chatbots ist jedoch ein wachsendes Problem.

Quelle: The Verge