Une étude révèle que l'ensemble de données LAION-5B destiné à l'apprentissage de l'intelligence artificielle contient des images d'abus sexuels commis sur des enfants

Par: Bohdan Kaminskyi | 21.12.2023, 13:19
Une étude révèle que l'ensemble de données LAION-5B destiné à l'apprentissage de l'intelligence artificielle contient des images d'abus sexuels commis sur des enfants
LAION

L'ensemble de données de formation à l'intelligence artificielle LAION-5B contient au moins 1679 références à des images d'abus sexuels sur des enfants (CSAM).

Voici ce que nous savons

Les chercheurs de l'Observatoire de l'Internet de Stanford ont commencé à analyser les ensembles de données LAION en septembre 2023 - ils ont vérifié les hachages d'images à l'aide de plates-formes spécialisées dans la détection des abus sexuels sur mineurs. Le Centre canadien de protection de l'enfance a également effectué une vérification.

Selon la description du site web, LAION est un index d'images provenant d'Internet, et non un dépôt. Néanmoins, les experts soulignent le danger potentiel que représente la présence de matériel de type "CSAM" : les modèles d'intelligence artificielle formés à partir de ces données peuvent apprendre à créer des contenus malveillants.

Les chercheurs ont recommandé de cesser d'utiliser les modèles d'IA qui ont été formés sur LAION-5B. En particulier, le modèle Stability Diffusion de Stability AI a été partiellement formé sur ces données.

Google a également utilisé une version antérieure de LAION pour Imagen, mais a ensuite abandonné ces données.

Source : The Verge The Verge