Ein gefälschter Telefonanruf im Namen von Biden, in dem er aufgefordert wurde, bei den US-Wahlen nicht für die Demokraten zu stimmen, erwies sich als Fälschung

Von: Bohdan Kaminskyi | 23.01.2024, 17:23

Patrick Semansky/AP

Desinformationsexperten glauben, dass es sich bei einem kürzlich getätigten automatischen Anruf im Namen von US-Präsident Joe Biden, der die Wähler in New Hampshire aufforderte, nicht an den Vorwahlen der Demokraten teilzunehmen, wahrscheinlich um einen von künstlicher Intelligenz generierten Dipfake handelt.

Was bekannt ist

Nach Ansicht von Experten deutet die unnatürliche Kadenz der Sprache in der Audioaufnahme darauf hin. Außerdem sind moderne neuronale Netze zur Spracherzeugung in der Lage, die Stimmen echter Menschen, darunter auch von Politikern, aus kleinen Audio-Samples mit hoher Genauigkeit zu imitieren.

Experten weisen darauf hin, dass Dipfake-Technologien nicht reguliert sind und zu ihrem Nachteil eingesetzt werden können. So ist dieses Spoofing beispielsweise ein Versuch, die Stimmen von Wählern zu unterdrücken, was nach US-Bundesrecht verboten ist.

Senator Richard Blumenthal, der im Senat einen Gesetzentwurf zur Regulierung von KI eingebracht hat, hofft, dass der Vorfall die Öffentlichkeit auf die Gefahren von Desinformation durch Dipfakes aufmerksam machen wird.

"Ich hoffe, dass der Deepfake oder die Imitation von Biden ein Schock für das System sein wird und vielleicht jeden darauf aufmerksam macht, dass tatsächlich jeder in Gefahr ist", sagte er.

Die Staatsanwaltschaft von New Hampshire bezeichnete den Anruf als "illegalen Versuch", die Wähler davon abzuhalten, bei den Vorwahlen der Demokraten ihre Stimme für Biden abzugeben. Sie konnten jedoch nicht sagen, woher die Audioaufnahme stammt.

Dipfakes wurden bisher nicht verwendet, um in US-Wahlprozesse einzugreifen, was bei Robocalls nicht der Fall ist. Laut Mekela Panditharatne von der New York University wurden sie in der Vergangenheit von Betrügern eingesetzt, um falsche Informationen darüber zu verbreiten, wie, wann und wo man wählen sollte.

"Die KI der Spracherzeugung macht diese Methode der versuchten Wahlunterdrückung für Betrüger möglicherweise attraktiver", fügte sie hinzu.

Quelle: NBC