Il popolare dataset per l'addestramento dell'intelligenza artificiale LAION-5B contiene immagini di abusi sessuali su minori - studio
LAION
Il dataset per l'addestramento dell'intelligenza artificiale LAION-5B contiene almeno 1679 riferimenti a immagini di abusi sessuali su minori (CSAM).
Ecco cosa sappiamo
I ricercatori dello Stanford Internet Observatory hanno iniziato ad analizzare i dataset LAION nel settembre 2023, controllando gli hash delle immagini con piattaforme specializzate per individuare il CSAM. È stato effettuato anche un controllo da parte del Canadian Centre for Child Protection.
Secondo la descrizione del sito web, LAION è un indice di immagini provenienti da Internet, non un archivio. Ciononostante, gli esperti rilevano il potenziale pericolo della presenza di materiale CSAM al suo interno: i modelli di intelligenza artificiale addestrati su tali dati possono imparare a creare contenuti dannosi.
I ricercatori raccomandano di interrompere l'uso di modelli di intelligenza artificiale addestrati su LAION-5B. In particolare, il modello Stable Diffusion di Stability AI è stato parzialmente addestrato su questi dati.
Google ha utilizzato anche una versione precedente di LAION per Imagen, ma in seguito ha abbandonato questi dati.
Fonte: The Verge