Google ha ampliado su programa de bug bounty para vulnerabilidades en sistemas de IA generativa
Jakub Porzycki/Getty Images
Google ha complementado su programa de recompensas por encontrar vulnerabilidades con escenarios de ataque específicos para la inteligencia artificial generativa.
Esto es lo que sabemos
En el programa de recompensas por fallos, Google paga a los hackers éticos recompensas en metálico por encontrar y divulgar de forma responsable vulnerabilidades. Según la empresa, esto incentiva la investigación sobre la seguridad de la IA y ayudará a identificar posibles problemas para que la tecnología sea más segura.
Dados los nuevos problemas de seguridad debidos a la IA, Google ha decidido replantearse cómo clasifica los fallos de sus sistemas. Para ello, la compañía está utilizando los datos de su AI Red Team (Equipo Rojo de Inteligencia Artificial) que modela diversos ciberataques.
En concreto, el equipo descubrió la vulnerabilidad de los modelos lingüísticos a la introducción de pistas maliciosas y a la extracción de datos de entrenamiento por parte de los atacantes. Estas situaciones están ahora cubiertas por el programa de recompensas por fallos.
Sin embargo, no se recompensarán los fallos descubiertos que impliquen la infracción de derechos de autor o la extracción de datos insensibles.
La cuantía de la recompensa dependerá de la gravedad de la vulnerabilidad detectada. Google pagó a los investigadores más de 12 millones de dólares en 2022.
Fuente: TechCrunch