Google a élargi son programme de recherche de failles dans les systèmes d'IA générative.
Jakub Porzycki/Getty Images
Google a complété son programme de récompenses pour la découverte de vulnérabilités par des scénarios d'attaque spécifiques à l'intelligence artificielle générative.
Voici ce que nous savons
Dans le cadre du programme bug bounty, Google récompense en espèces les hackers éthiques qui trouvent et divulguent de manière responsable des vulnérabilités. Selon l'entreprise, ce programme encourage la recherche sur la sécurité de l'IA et permet d'identifier les problèmes potentiels afin de rendre la technologie plus sûre.
Compte tenu des nouvelles préoccupations en matière de sécurité liées à l'IA, Google a décidé de repenser la manière dont elle classe les bogues dans ses systèmes. Pour ce faire, l'entreprise utilise les données de son AI Red Team qui modélise diverses cyberattaques.
L'équipe a notamment découvert les vulnérabilités des modèles de langage face à l'introduction d'indices malveillants et à l'extraction de données d'entraînement par des attaquants. Ces scénarios sont désormais couverts par le programme de primes aux bugs.
Toutefois, les bogues découverts qui impliquent une violation des droits d'auteur ou l'extraction de données insensibles ne seront pas récompensés.
Le montant de la récompense dépendra de la gravité de la vulnérabilité découverte. Google a versé aux chercheurs plus de 12 millions de dollars en 2022.
Source : TechCrunch TechCrunch