Künstliche Intelligenz hat gelernt, Stimmen zu fälschen, um Authentifizierungssysteme zu täuschen

Von: Bohdan Kaminskyi | 28.06.2023, 18:02

Wissenschaftler der Universität Waterloo in Kanada haben eine Methode zur Stimmfälschung mit Hilfe künstlicher Intelligenz entwickelt, mit der die Stimmauthentifizierung umgangen werden kann.

Was wir wissen

Die Stimmauthentifizierung basiert auf der Einzigartigkeit der Stimme einer jeden Person. Diese wird von physischen Merkmalen wie der Größe und Form der Stimmbänder und des Kehlkopfs sowie von sozialen Faktoren beeinflusst.

Authentifizierungssysteme erfassen die Nuancen der Stimmabdrücke. Künstliche Intelligenz kann die menschliche Sprache bereits recht realistisch imitieren, aber die Algorithmen haben charakteristische Artefakte, anhand derer Analysten eine Fälschung erkennen können.

Die von den Forschern entwickelte Technik zielt darauf ab, diese Merkmale zu eliminieren. Die Idee ist, die Stimme des Benutzers in die gefälschte Aufnahme "engrave".

"Our adversarial engine attempts to remove machine artifacts that are predominant in these samples"

Die Forscher trainierten das System mit Sprachproben von 107 Sprechern, um besser zu verstehen, was Sprache menschlich klingen lässt. Um den Algorithmus zu testen, erstellten sie mehrere Beispiele, um Authentifizierungssysteme zu täuschen. Bei einigen schwachen Systemen erreichten sie nach sechs Versuchen 99 %.

Stärkere Authentifikatoren erwiesen sich jedoch als zuverlässiger. In einem Test gegen Amazon Connect erreichten die Forscher eine Erfolgsquote von 10 % bei einem vier Sekunden dauernden Angriff und 40 % in weniger als 30 Sekunden.

Die Forscher stellten außerdem fest, dass die Angreifer ein Stimmprofil des Opfers und die entsprechenden technischen Fähigkeiten benötigen, um den Angriff durchzuführen. Dies ist eine ziemlich hohe Hürde, aber sie forderten die Entwickler von Authentifizierungssystemen auf, an der Verbesserung der Sicherheit ihrer Technologien zu arbeiten.

Quelle: The Register.