Les grandes entreprises du secteur de l'IA acceptent de s'attaquer aux images d'abus d'enfants

Par: Bohdan Kaminskyi | 23.04.2024, 21:55
Les grandes entreprises du secteur de l'IA acceptent de s'attaquer aux images d'abus d'enfants
Steve Johnson/Unsplash

Les principales entreprises d'intelligence artificielle, dont Google, Meta, OpenAI, Microsoft et Amazon, ont accepté de prendre des mesures pour empêcher l'utilisation de matériel d'exploitation sexuelle des enfants (CSAM) dans les ensembles de données d'entraînement pour les modèles d'intelligence artificielle.

Voici ce que nous savons

Les géants de la technologie ont signé un nouvel ensemble de principes visant à limiter la propagation du matériel d'exploitation sexuelle des enfants. Ils s'engagent à veiller à ce que les données d'entraînement ne contiennent pas de contenu malveillant, à éviter les ensembles de données présentant un risque élevé d'inclure ce type de matériel et à supprimer ces images ou les liens vers celles-ci des sources de données.

En outre, les entreprises ont l'intention de soumettre les modèles d'IA à des "tests de résistance" pour s'assurer qu'ils ne génèrent pas de contenu de type CSAM, et de ne diffuser les modèles qu'après avoir évalué leur conformité avec les exigences en matière de sécurité des enfants.

Des entreprises telles que Anthropic, Civitai, Metaphysic, Mistral AI et Stability AI se sont également jointes à l'initiative.

La popularité croissante de l'IA générative a alimenté la prolifération de fausses images en ligne, y compris des photos synthétiques d'exploitation sexuelle d'enfants. Des recherches récentes ont révélé la présence de références à CSAM dans certains ensembles de données d'entraînement populaires pour les modèles d'IA.

Thorn, une organisation à but non lucratif dédiée à la lutte contre la maltraitance des enfants qui a contribué à l'élaboration des lignes directrices, met en garde contre le fait que la production de CSAM par l'IA pourrait empêcher les victimes d'être identifiées, créer une demande accrue et faciliter la recherche et la diffusion de matériel problématique.

Google indique que, parallèlement à l'adoption de ces principes, l'entreprise a également augmenté ses subventions publicitaires au National Centre for Missing and Exploited Children (NCMEC) afin de promouvoir des initiatives visant à sensibiliser le public et à lui donner les moyens d'identifier et de signaler les abus.

Source : The Verge The Verge