Basura total": Los piratas informáticos critican las pruebas de seguridad actuales de la IA

Por: Vlad Cherevko | 12.02.2025, 01:40
Cómo proteger los sistemas inteligentes: las nuevas fronteras de la seguridad de la IA Ilustración de la defensa de la inteligencia artificial. Fuente: Blue Planet Studio

En DEF CON, la mayor conferencia de hackers del mundo, destacados investigadores en ciberseguridad afirmaron que los métodos actuales para proteger los sistemas de inteligencia artificial (IA) son fundamentalmente defectuosos y requieren una revisión completa.

Esto es lo que sabemos

El primer informe del Almanaque de los Hackers, elaborado en colaboración con la Iniciativa de Política Cibernética de la Universidad de Chicago, cuestiona la eficacia del método del "equipo rojo", consistente en que los expertos en seguridad analicen los sistemas de IA en busca de vulnerabilidades. Sven Cattell, que dirige el AI Village DEF CON, afirmó que este método no puede proteger adecuadamente contra las amenazas emergentes porque la documentación de los modelos de IA está fragmentada y las evaluaciones incluidas en la documentación son inadecuadas.

En la conferencia, unos 500 participantes probaron modelos de IA, e incluso los novatos lograron encontrar vulnerabilidades. Los investigadores pidieron la implantación de estructuras similares al marco de Vulnerabilidades y Exposiciones Comunes (CVE) utilizado en la ciberseguridad tradicional desde 1999 para normalizar la forma de documentar y subsanar las vulnerabilidades de la IA.

Fuente: DEF CON