Una vera e propria schifezza: Gli hacker hanno criticato gli attuali test di sicurezza dell'intelligenza artificiale

In occasione della DEF CON, la più grande conferenza hacker del mondo, i principali ricercatori di cybersicurezza hanno dichiarato che gli attuali metodi di protezione dei sistemi di intelligenza artificiale (AI) sono fondamentalmente errati e richiedono una revisione completa.
Ecco cosa sappiamo
Il primo rapporto Hackers' Almanac della conferenza, prodotto in collaborazione con la Cyber Policy Initiative dell'Università di Chicago, mette in dubbio l'efficacia del metodo "red team", che consiste nell'affidare a esperti di sicurezza la scansione dei sistemi di intelligenza artificiale alla ricerca di vulnerabilità. Sven Cattell, che dirige l'AI Village DEF CON, ha affermato che l'approccio non può proteggere adeguatamente dalle minacce emergenti perché la documentazione dei modelli di IA è frammentaria e le valutazioni incluse nella documentazione sono inadeguate.
Alla conferenza, circa 500 partecipanti hanno testato i modelli di IA e anche i principianti sono riusciti a trovare vulnerabilità. I ricercatori hanno chiesto l'implementazione di strutture simili al quadro CVE (Common Vulnerabilities and Exposures), utilizzato nella cybersecurity tradizionale dal 1999, per standardizzare le modalità di documentazione e correzione delle vulnerabilità dell'IA.
Fonte: DEF CON