L'intelligenza artificiale ha imparato a fingere le voci per ingannare i sistemi di autenticazione
Gli scienziati dell'Università di Waterloo, in Canada, hanno sviluppato un metodo di falsificazione vocale che utilizza l'intelligenza artificiale e che permette di aggirare l'autenticazione vocale.
Cosa sappiamo
L'autenticazione vocale si basa sull'unicità della voce di ogni persona. Questa è influenzata da caratteristiche fisiche, come la dimensione e la forma delle corde vocali e della laringe, e da fattori sociali.
I sistemi di autenticazione catturano le sfumature delle impronte vocali. L'intelligenza artificiale è già in grado di imitare il parlato umano in modo abbastanza realistico, ma gli algoritmi presentano artefatti distintivi che gli analisti possono utilizzare per identificare un falso.
La tecnica sviluppata dai ricercatori mira a eliminare queste caratteristiche. L'idea è quella di "incidere" l 'impronta vocale dell'utente nella registrazione falsa.
"Il nostro meccanismo adversariale cerca di rimuovere gli artefatti della macchina che sono prevalenti in questi campioni", si legge nel documento.
I ricercatori hanno addestrato il sistema su campioni vocali di 107 parlanti per capire meglio cosa rende il parlato umano. Per testare l'algoritmo, hanno creato diversi campioni per ingannare i sistemi di autenticazione. Contro alcuni sistemi deboli, hanno ottenuto il 99% dopo sei tentativi.
Tuttavia, gli autenticatori più forti si sono dimostrati più affidabili. In un test contro Amazon Connect, i ricercatori hanno ottenuto un tasso di successo del 10% in un attacco di quattro secondi e del 40% in meno di 30 secondi.
I ricercatori hanno anche notato che gli aggressori hanno bisogno di un campione della voce della vittima e delle competenze tecniche adeguate per portare a termine l'attacco. Si tratta di una barriera piuttosto alta, ma hanno esortato gli sviluppatori di sistemi di autenticazione a lavorare per migliorare la sicurezza delle loro tecnologie.
Fonte: The Register.