Grote AI-bedrijven komen overeen om beelden van kindermisbruik aan te pakken
Steve Johnson/Unsplash
Toonaangevende bedrijven op het gebied van kunstmatige intelligentie, waaronder Google, Meta, OpenAI, Microsoft en Amazon, hebben afgesproken stappen te ondernemen om te voorkomen dat materiaal over seksuele uitbuiting van kinderen (CSAM) wordt gebruikt in trainingsdatasets voor AI-modellen.
Dit is wat we weten
De techgiganten hebben een nieuwe reeks principes ondertekend om de verspreiding van CSAM te beperken. Ze beloven ervoor te zorgen dat trainingsgegevens geen schadelijke inhoud bevatten, datasets met een hoog risico op dergelijk materiaal te vermijden en dergelijke afbeeldingen of koppelingen ernaar uit gegevensbronnen te verwijderen.
Daarnaast zijn bedrijven van plan om AI-modellen te "stresstesten" om er zeker van te zijn dat ze geen CSAM-inhoud genereren, en modellen pas vrij te geven nadat ze hebben beoordeeld of ze voldoen aan de eisen voor kinderveiligheid.
Bedrijven als Anthropic, Civitai, Metaphysic, Mistral AI en Stability AI hebben zich ook aangesloten bij het initiatief.
De groeiende populariteit van generatieve AI heeft de proliferatie van nepbeelden online aangewakkerd, waaronder synthetische foto's van seksuele uitbuiting van kinderen. Recent onderzoek heeft de aanwezigheid van CSAM-referenties in een aantal populaire trainingsdatasets voor AI-modellen aan het licht gebracht.
Thorn, een non-profitorganisatie voor de bestrijding van kindermisbruik die heeft meegewerkt aan de ontwikkeling van de richtlijnen, waarschuwt dat het genereren van CSAM door middel van AI kan voorkomen dat slachtoffers worden geïdentificeerd, meer vraag kan creëren en het makkelijker kan maken om problematisch materiaal te vinden en te verspreiden.
Google zegt dat het bedrijf, naast het overnemen van de principes, ook de advertentiesubsidies aan het National Centre for Missing and Exploited Children (NCMEC) heeft verhoogd om initiatieven te bevorderen die het bewustzijn vergroten en mensen de tools geven om misbruik te identificeren en te melden.
Bron: The Verge