OpenAI ha formado un grupo para evaluar los riesgos catastróficos de la IA

Por: Bohdan Kaminskyi | 27.10.2023, 17:56
OpenAI ha formado un grupo para evaluar los riesgos catastróficos de la IA
Mariia Shalabaieva/Unsplash

OpenAI ha anunciado la creación de un nuevo equipo dedicado a mitigar los riesgos potencialmente peligrosos asociados a la inteligencia artificial.

Esto es lo que sabemos

El equipo de preparación vigilará, evaluará y prevendrá los problemas graves que puede causar la IA. Entre ellos se encuentran las amenazas nucleares, las armas biológicas, el engaño humano y los ciberataques.

OpenAI señala que el nuevo equipo elaborará políticas de desarrollo de la IA basadas en el riesgo. Aleksander Madry, experto del MIT en aprendizaje automático, ha sido designado para dirigir el equipo.

Según OpenAI, los modelos avanzados de IA pueden aportar beneficios, pero también conllevan riesgos crecientes. El consejero delegado de la empresa, Sam Altman, ha advertido anteriormente de las posibles consecuencias catastróficas de la IA y ha instado a los gobiernos a tomarse esta tecnología tan en serio como las armas nucleares.

Fuente: OpenAI