OpenAI refuerza los controles sobre el desarrollo de modelos de IA potencialmente peligrosos
Mariia Shalabaieva/Unsplash
OpenAI, el desarrollador del popular chatbot ChatGPT, está implementando controles adicionales para reducir el riesgo de crear modelos de inteligencia artificial maliciosos.
Esto es lo que sabemos
En concreto, OpenAI está creando un grupo especial de asesoramiento sobre seguridad. Evaluará los riesgos de los modelos desarrollados en varias áreas: ciberseguridad, desinformación, autonomía y otras.
El grupo podrá hacer recomendaciones a la alta dirección de la empresa sobre la prohibición o restricción de determinados proyectos. Además, el consejo de administración de OpenAI tendrá derecho a vetar decisiones de la dirección ejecutiva.
Según declaraciones de la empresa, estas medidas permitirán identificar mejor las amenazas potenciales en las primeras fases de desarrollo. Sin embargo, los expertos señalan que la eficacia real del sistema depende de la política de la propia dirección de OpenAI.
Anteriormente, los partidarios de limitar los proyectos de IA arriesgados estaban excluidos del consejo de administración. Y los nuevos miembros del consejo son conocidos por su postura más bien comercial. Se desconoce hasta qué punto estarán dispuestos a utilizar el derecho de veto en la práctica.
Fuente: TechCrunch