Le district scolaire de Beverly Hills a renvoyé cinq élèves pour avoir utilisé l'IA afin de créer de fausses photos de nu.
Beverly Vista Middle School/Facebook
Le Beverly Hills Unified School District a voté l'expulsion de cinq élèves de huitième année de collège qui ont utilisé l'intelligence artificielle générative pour créer et distribuer de fausses images de nudité de 16 de leurs camarades de classe.
Voici ce que nous savons
Le surintendant Michael Bregy a déclaré que l'incident avait suscité un débat sur l'utilisation éthique de la technologie de l'intelligence artificielle. Il a ajouté que si les enfants peuvent faire des erreurs, il est nécessaire qu'ils soient tenus responsables de leurs actes.
La décision d'expulsion est l'un des premiers cas publics où une école prend des mesures disciplinaires sérieuses en raison de l'utilisation de l'IA pour créer de faux contenus. Les élèves exclus et leurs parents ne contestent pas la décision.
L'incident de Beverly Hills s'inscrit dans le cadre d'un nombre croissant d'affaires dans le monde entier impliquant l'utilisation de l'IA pour générer de fausses images de mineurs nus. Ces contenus sont souvent diffusés par l'intermédiaire d'applications et de sites web.
Les autorités mènent une enquête criminelle sur l'incident, mais personne n'a encore été arrêté. La création et la diffusion de ce type de contenu impliquant des enfants sont illégales, ont déclaré les autorités chargées de l'application de la loi.
Approfondir :
- Des écoliers californiens ont distribué des photos nues de leurs camarades de classe générées par l'IA
- La police de Beverly Hills enquête sur la diffusion de fausses photos intimes d'écoliers générées par l'intelligence artificielle.
Source : NBC News NBC News