Las grandes empresas de IA acuerdan abordar las imágenes de abusos a menores

Por: Bohdan Kaminskyi | 23.04.2024, 22:55
Las grandes empresas de IA acuerdan abordar las imágenes de abusos a menores
Steve Johnson/Unsplash

Empresas líderes en inteligencia artificial como Google, Meta, OpenAI, Microsoft y Amazon han acordado tomar medidas para evitar que se utilice material de explotación sexual infantil (CSAM) en conjuntos de datos de entrenamiento para modelos de IA.

Esto es lo que sabemos

Los gigantes tecnológicos han firmado un nuevo conjunto de principios destinados a limitar la propagación del CSAM. Se comprometen a garantizar que los datos de entrenamiento no contengan contenido malicioso, a evitar conjuntos de datos con un alto riesgo de incluir dicho material y a eliminar dichas imágenes o enlaces a ellas de las fuentes de datos.

Además, las empresas se proponen realizar "pruebas de estrés" de los modelos de IA para asegurarse de que no generan contenido CSAM, y publicar modelos sólo después de evaluar su cumplimiento de los requisitos de seguridad infantil.

Empresas como Anthropic, Civitai, Metaphysic, Mistral AI y Stability AI también se han sumado a la iniciativa.

La creciente popularidad de la IA generativa ha alimentado la proliferación de imágenes falsas en línea, incluidas fotos sintéticas de explotación sexual infantil. Recientes investigaciones han revelado la presencia de referencias a CSAM en algunos conjuntos de datos de entrenamiento populares para modelos de IA.

Thorn, una organización sin ánimo de lucro dedicada a la lucha contra el abuso infantil que ayudó a desarrollar las directrices, advierte de que generar CSAM mediante IA podría impedir que se identifique a las víctimas, crear más demanda y facilitar la búsqueda y distribución de material problemático.

Google afirma que, junto con la adopción de los principios, la empresa también ha aumentado las subvenciones publicitarias al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) para promover iniciativas de sensibilización y dar a la gente las herramientas para identificar y denunciar los abusos.

Fuente: The Verge