C'est du grand n'importe quoi : Des pirates informatiques ont critiqué les tests de sécurité actuels de l'IA

Par: Vlad Cherevko | 12.02.2025, 00:40
Comment protéger les systèmes intelligents : les nouvelles frontières de la sécurité de l'IA Illustration de la défense de l'intelligence artificielle. Source: Blue Planet Studio

Lors de la conférence DEF CON, la plus grande conférence de pirates informatiques au monde, d'éminents chercheurs en cybersécurité ont déclaré que les méthodes actuelles de protection des systèmes d'intelligence artificielle (IA) étaient fondamentalement défectueuses et nécessitaient une refonte complète.

Voici ce que nous savons

Le premier rapport de l'Almanach des hackers de la conférence, produit conjointement avec la Cyber Policy Initiative de l'université de Chicago, remet en question l'efficacité de la méthode de l'"équipe rouge", qui consiste à demander à des experts en sécurité d'analyser les systèmes d'intelligence artificielle pour y déceler des vulnérabilités. Sven Cattell, qui dirige le village de l'IA DEF CON, a déclaré que cette approche ne peut pas protéger de manière adéquate contre les menaces émergentes parce que la documentation des modèles d'IA est fragmentée et que les évaluations incluses dans la documentation sont inadéquates.

Lors de la conférence, environ 500 participants ont testé des modèles d'IA et même des novices ont réussi à trouver des vulnérabilités. Les chercheurs ont appelé à la mise en œuvre de structures similaires au cadre CVE (Common Vulnerabilities and Exposures) utilisé dans la cybersécurité traditionnelle depuis 1999, afin de normaliser la manière dont les vulnérabilités de l'IA sont documentées et corrigées.

Source : DEF CON