La police de Beverly Hills enquête sur la diffusion de fausses photos intimes d'écoliers générées par l'intelligence artificielle.
BVMS
Le service de police de Beverly Hills (Californie, États-Unis) a ouvert une enquête criminelle sur un incident survenu au lycée Beverly Vista, où des élèves utilisant des outils d'intelligence artificielle ont fabriqué et diffusé en masse des photos nues de camarades de classe.
Ce que nous savons
Selon le directeur adjoint de la ville, Keith Sterling, les photos représentaient des corps nus sur lesquels étaient superposés les visages de vrais élèves. Les photos ont circulé activement sur les messageries et les médias sociaux.
Les responsables des écoles ont été informés la semaine dernière de l'existence de "photos de nus générées par l'IA", selon la lettre de Sterling.
Malgré la réaction rapide des autorités, l'incident a provoqué la stupeur et la consternation des élèves et de leurs parents. Nombre d'entre eux ont déclaré aux journalistes qu'ils avaient désormais peur d'aller à l'école.
Selon Mary Anne Franks, experte en cybersécurité, ce type de matériel peut être considéré comme du harcèlement et de la traque, et dans certains cas, comme de la pornographie enfantine.
"Nous avons des interdictions fédérales et autres contre certaines représentations de visages d'enfants ou d'autres parties de leur corps qui sont mélangées à d'autres choses", a expliqué Mme Franks.
Toutefois, l'expert a ajouté que pour être illégales, les images doivent montrer un comportement sexuellement explicite. C'est déjà un critère plus élevé que la simple nudité.
Malgré les outils juridiques disponibles, M. Franks a appelé à une réglementation plus stricte dans le domaine de l'IA générative afin d'empêcher l'utilisation abusive de ces technologies, qui pourraient causer de graves préjudices aux mineurs.
Approfondir :
Source : NBC News NBC News