La junta de supervisión de Meta revisará los casos de uso de IA para crear imágenes explícitas
Mariia Shalabaieva/Unsplash
La junta de supervisión de Meta se ha hecho cargo de dos casos relacionados con el uso de inteligencia artificial para crear imágenes explícitas de personajes públicos. La junta quiere evaluar la eficacia de las políticas y prácticas de moderación de Meta en relación con este tipo de contenidos.
Esto es lo que sabemos
Uno de los casos se refiere a una publicación en Instagram con una imagen generada por inteligencia artificial de una mujer india desnuda. La publicó una cuenta que sólo publica este tipo de contenido. Aunque el post se retiró tras la queja del usuario, tampoco se tuvo en cuenta su recurso.
El segundo caso se refiere a un post de un grupo de Facebook que mostraba una "mujer desnuda generada por IA" con un pie de foto que hacía referencia a una "figura pública estadounidense". El post fue eliminado por una herramienta de moderación automática, pero el autor recurrió la decisión.
La junta de supervisión ha decidido revisar ambos casos para evaluar si Meta protege de forma justa a las mujeres de todo el mundo de este tipo de contenidos generados por IA. La junta solicita comentarios del público durante quince días y tiene previsto publicar en breve su decisión y recomendaciones para las políticas de Meta.
La Junta de Supervisión ya ha influido anteriormente en la política de la empresa sobre contenidos generados por IA, como ocurrió tras el incidente del vídeo de Joe Biden. Como resultado, Meta accedió a etiquetar más contenidos de IA de este tipo en sus plataformas.
Fuente: Engadget