Discord vieta la distribuzione di immagini di abusi su minori generate dall'intelligenza artificiale
La piattaforma Discord ha vietato la distribuzione di materiale pedopornografico (CSAM) generato dall'intelligenza artificiale.
Cosa si sa
John Redgrave, vicepresidente di Discord per la fiducia e la sicurezza, ha dichiarato che la piattaforma sta ampliando le regole sull'intelligenza artificiale generativa che può creare contenuti falsi. In particolare, la politica aggiornata vieta la creazione e la distribuzione di immagini CSAM, nonché la sessualizzazione dei bambini nelle chat di testo.
Il mese scorso, il Washington Post ha riportato che negli ultimi mesi si sono diffuse su Internet immagini CSAM generate dall'intelligenza artificiale. Discord è risultata essere una di queste piattaforme.
Sulla piattaforma sono state inserite diverse integrazioni che hanno permesso agli utenti di creare immagini direttamente nelle chat. È emerso che gli utenti spesso generavano immagini con contenuti sessuali.
Tuttavia, un rappresentante di Discord ha dichiarato che il lavoro di aggiornamento della politica è in corso dall'ultimo trimestre del 2021. Secondo lui, le nuove regole non sono una reazione alle recenti segnalazioni.
Fonte: NBC.