Politiet i Beverly Hills etterforsker distribusjon av falske intime bilder av skolebarn generert av kunstig intelligens.

Av: Bohdan Kaminskyi | 29.02.2024, 21:13
Politiet i Beverly Hills etterforsker distribusjon av falske intime bilder av skolebarn generert av kunstig intelligens.
BVMS

Politiet i Beverly Hills (California, USA) har innledet etterforskning av en hendelse ved Beverly Vista High School, der elever ved hjelp av verktøy for kunstig intelligens fabrikkerte og massedistribuerte nakenbilder av klassekamerater.

Dette er hva vi vet

Ifølge assisterende kommunaldirektør Keith Sterling forestilte bildene nakne kropper med ansiktene til ekte skoleelever lagt oppå. Bildene ble aktivt spredt på Messenger og sosiale medier.

Skolemyndighetene ble varslet om de "AI-genererte nakenbildene" i forrige uke, heter det i Sterlings brev.

Til tross for den raske responsen fra myndighetene, skapte hendelsen sjokk og forferdelse blant elever og foreldre. Mange av dem fortalte journalister at de nå er redde for å gå på skolen.

Ifølge cybersikkerhetsekspert Mary Anne Franks kan slikt materiale kvalifisere som trakassering og forfølgelse, og i noen tilfeller som barnepornografi.

"Vi har føderale og andre forbud mot visse avbildninger av faktiske barneansikter eller andre kroppsdeler som er blandet med andre ting", forklarer Franks.

Eksperten legger imidlertid til at for at bildene skal være ulovlige, må de vise seksuelt eksplisitt atferd. Dette er allerede et høyere kriterium enn ren nakenhet.

Men til tross for de juridiske verktøyene som er tilgjengelige, etterlyste Franks en sterkere regulering av feltet generativ AI for å forhindre misbruk av slik teknologi, som potensielt kan forårsake alvorlig skade på mindreårige.

Gå dypere:

Kilde: NBC News NBC News