Chatbot van Microsoft gaf valse informatie over Europese verkiezingen

Via: Bohdan Kaminskyi | 18.12.2023, 14:54

Microsoft

Onderzoekers hebben ontdekt dat de Bing chatbot (nu Copilot) foutieve informatie gaf over de recente Zwitserse en Duitse verkiezingen. Volgens een rapport van de belangengroep AlgorithmWatch bevatte bijna een derde van de antwoorden van de tool op vragen over de verkiezingen feitelijke fouten.

Dit is wat we weten

De antwoorden bevatten met name onjuiste data, resultaten van peilingen en verwijzingen naar kandidaten die niet hebben deelgenomen aan de verkiezingen. Bing citeerde vaak echte bronnen, maar de cijfers die hij noemde waren in strijd met de originele gegevens.

De onderzoekers merken op dat Bing's verdedigingsmechanismen ongelijk werden geactiveerd. In 30 procent van de gevallen waren de antwoorden correct en in 39 procent weigerde de chatbot te antwoorden. Hij maakte echter ernstige feitelijke fouten als het ging om feiten in plaats van meningen.

Microsoft verzekerde dat het stappen onderneemt om de nauwkeurigheid van AI-platforms te verbeteren, vooral in de context van verkiezingen. Het risico op verkeerde informatie van chatbots is echter een groeiende zorg.

Bron: The Verge