Discord prohíbe la distribución de imágenes de abusos a menores generadas por inteligencia artificial
La plataforma Discord ha prohibido la distribución de material de abuso sexual infantil (CSAM) generado por inteligencia artificial.
Lo que se sabe
John Redgrave, Vicepresidente de Confianza y Seguridad de Discord, dijo que la plataforma está ampliando las normas sobre IA generativa que puede crear contenido falso. En concreto, la política actualizada prohíbe la creación y distribución de imágenes CSAM, así como la sexualización de niños en chats de texto.
El mes pasado, el Washington Post informó de que imágenes CSAM generadas por inteligencia artificial se habían estado difundiendo por Internet en los últimos meses. Discord resultó ser una de esas plataformas.
Se colocaron varias integraciones en la plataforma, que permitían a los usuarios crear imágenes directamente en los chats. Resultó que los usuarios a menudo generaban imágenes con contenido sexual.
Sin embargo, un representante de Discord dijo que se está trabajando en la actualización de la política desde el último trimestre de 2021. Según él, las nuevas reglas no son una reacción a ningún informe reciente.
Fuente: NBC.