Le comité de surveillance de Meta examinera les cas d'utilisation de l'IA pour créer des images explicites.

Par: Bohdan Kaminskyi | 18.04.2024, 20:51

Mariia Shalabaieva/Unsplash

Le comité de surveillance de Meta s'est saisi de deux affaires concernant l'utilisation de l'intelligence artificielle pour créer des images explicites de personnalités publiques. Le comité souhaite évaluer l'efficacité des politiques et des pratiques de modération de Meta concernant ce type de contenu.

Ce que nous savons

L'une des affaires concerne un post Instagram présentant une image générée par l'intelligence artificielle d'une femme indienne nue. Il a été posté par un compte qui ne publie que ce type de contenu. Bien que le message ait été supprimé à la suite de la plainte de l'utilisateur, son appel n'a pas non plus été pris en considération.

La deuxième affaire concerne un message posté par un groupe Facebook qui montrait une "femme nue générée par l'IA" avec une légende faisant référence à une "personnalité publique américaine". Le message a été supprimé par un outil de modération automatique, mais l'auteur a fait appel de la décision.

Le comité de surveillance a décidé d'examiner les deux cas afin de déterminer si Meta protège équitablement les femmes du monde entier contre ce type de contenu généré par l'IA. Le comité sollicite les commentaires du public pendant une quinzaine de jours et prévoit de publier prochainement sa décision et ses recommandations concernant les politiques de Meta.

Le comité de surveillance a déjà influencé la politique de l'entreprise en matière de contenus générés par l'IA, notamment après l'incident de la vidéo de Joe Biden. En conséquence, Meta a accepté d'étiqueter davantage de contenus générés par l'IA sur ses plateformes.

Source : Engadget : Engadget