EE.UU. y el Reino Unido acuerdan probar conjuntamente la seguridad de los modelos de inteligencia artificial

Por: Bohdan Kaminskyi | 02.04.2024, 19:12

Steve Johnson/Unsplash

Los gobiernos de EE.UU. y Reino Unido han firmado un memorando de entendimiento para crear un enfoque común que permita evaluar de forma independiente la seguridad de modelos avanzados de inteligencia artificial como ChatGPT y DALL-E.

Esto es lo que sabemos

En virtud de esta asociación, el Instituto de Seguridad de la IA del Reino Unido y su homólogo estadounidense, anunciado previamente por la Vicepresidenta Kamala Harris, desarrollarán conjuntamente conjuntos de pruebas para la evaluación de riesgos y la seguridad de los modelos de IA de vanguardia.

Las partes tienen previsto compartir conocimientos técnicos, información y personal. Uno de los objetivos iniciales será realizar pruebas conjuntas con un modelo de IA de acceso público.

La Ministra de Ciencia del Reino Unido, Michelle Donelan, subrayó la necesidad de actuar con rapidez, ya que se espera que el año que viene surja una nueva generación de modelos de IA cuyas capacidades aún se desconocen.

La asociación es el primer acuerdo bilateral del mundo sobre seguridad de la IA, aunque tanto EE.UU. como el Reino Unido tienen intención de involucrar a otros países en el futuro.

La Secretaria de Comercio de EE.UU., Gina Raimondo, declaró que la asociación acelerará el trabajo de las instituciones para evaluar los riesgos de la IA para la seguridad nacional y la sociedad en general, proporcionando un conocimiento más profundo de los sistemas de IA y emitiendo recomendaciones rigurosas.

Flashback

Además de las pruebas y la evaluación, los gobiernos de todo el mundo también están elaborando normas para regular las tecnologías de IA. La Casa Blanca firmó una orden ejecutiva para garantizar que las agencias federales sólo utilicen herramientas de IA seguras, y el Parlamento Europeo ha aprobado una amplia legislación que prohíbe los sistemas de IA manipuladores y discriminatorios, además de exigir el etiquetado de los contenidos generados por IA.

Fuente: Engadget