La polizia di Beverly Hills sta indagando sulla distribuzione di false foto intime di scolari generate dall'AI

Di: Bohdan Kaminskyi | 29.02.2024, 21:07

BVMS

Il dipartimento di polizia di Beverly Hills (California, USA) ha aperto un'indagine penale su un incidente verificatosi alla Beverly Vista High School, dove alcuni studenti, utilizzando strumenti di intelligenza artificiale, hanno fabbricato e diffuso in massa foto di nudo di compagni di classe.

Ecco cosa sappiamo

Secondo il vice direttore della città Keith Sterling, le foto ritraevano corpi nudi con i volti di veri studenti sovrapposti. Le foto sono state diffuse attivamente su messenger e sui social media.

I funzionari scolastici sono stati informati delle "foto di nudo generate dall'intelligenza artificiale" la scorsa settimana, si legge nella lettera di Sterling.

Nonostante la rapida risposta delle autorità, l'incidente ha causato shock e sgomento tra gli studenti e i genitori. Molti di loro hanno dichiarato ai giornalisti di aver paura di andare a scuola.

Secondo l'esperta di sicurezza informatica Mary Anne Franks, questo tipo di materiale può essere considerato molestia e stalking e, in alcuni casi, pedopornografia.

"Abbiamo divieti federali e di altro tipo contro alcune rappresentazioni di volti di bambini o di altre parti del loro corpo mescolate ad altre cose", ha spiegato Franks.

Tuttavia, ha aggiunto l'esperto, perché le immagini siano illegali, devono mostrare comportamenti sessualmente espliciti. Questo è già un criterio più elevato rispetto alla semplice nudità.

Ma nonostante gli strumenti legali a disposizione, Franks ha chiesto una regolamentazione più forte del settore dell'IA generativa per prevenire l'uso improprio di tali tecnologie, potenzialmente in grado di causare gravi danni ai minori.

Approfondimento:

Fonte: NBC News