Il popolare dataset per l'addestramento dell'intelligenza artificiale LAION-5B contiene immagini di abusi sessuali su minori - studio

Di: Bohdan Kaminskyi | 21.12.2023, 14:17

LAION

Il dataset per l'addestramento dell'intelligenza artificiale LAION-5B contiene almeno 1679 riferimenti a immagini di abusi sessuali su minori (CSAM).

Ecco cosa sappiamo

I ricercatori dello Stanford Internet Observatory hanno iniziato ad analizzare i dataset LAION nel settembre 2023, controllando gli hash delle immagini con piattaforme specializzate per individuare il CSAM. È stato effettuato anche un controllo da parte del Canadian Centre for Child Protection.

Secondo la descrizione del sito web, LAION è un indice di immagini provenienti da Internet, non un archivio. Ciononostante, gli esperti rilevano il potenziale pericolo della presenza di materiale CSAM al suo interno: i modelli di intelligenza artificiale addestrati su tali dati possono imparare a creare contenuti dannosi.

I ricercatori raccomandano di interrompere l'uso di modelli di intelligenza artificiale addestrati su LAION-5B. In particolare, il modello Stable Diffusion di Stability AI è stato parzialmente addestrato su questi dati.

Google ha utilizzato anche una versione precedente di LAION per Imagen, ma in seguito ha abbandonato questi dati.

Fonte: The Verge