Store AI-selskaper er enige om å bekjempe overgrepsbilder av barn
Steve Johnson/Unsplash
Ledende selskaper innen kunstig intelligens, deriblant Google, Meta, OpenAI, Microsoft og Amazon, har blitt enige om å iverksette tiltak for å forhindre at materiale om seksuell utnyttelse av barn (CSAM) brukes i treningsdatasett for AI-modeller.
Dette er hva vi vet
Teknologigigantene har undertegnet et nytt sett med prinsipper som skal begrense spredningen av CSAM. De forplikter seg til å sikre at opplæringsdata ikke inneholder skadelig innhold, unngå datasett med høy risiko for å inneholde slikt materiale og fjerne slike bilder eller lenker til dem fra datakilder.
I tillegg har selskapene til hensikt å "stressteste" AI-modeller for å sikre at de ikke genererer CSAM-innhold, og å lansere modeller først etter å ha vurdert om de oppfyller kravene til barnesikkerhet.
Selskaper som Anthropic, Civitai, Metaphysic, Mistral AI og Stability AI har også sluttet seg til initiativet.
Den økende populariteten til generativ AI har bidratt til at falske bilder, inkludert syntetiske bilder av seksuell utnyttelse av barn, sprer seg på nettet. Nyere forskning har avdekket forekomsten av CSAM-referanser i noen populære treningsdatasett for AI-modeller.
Thorn, en ideell organisasjon som arbeider for å bekjempe overgrep mot barn, og som var med på å utvikle retningslinjene, advarer om at generering av CSAM ved hjelp av kunstig intelligens kan hindre at ofre blir identifisert, skape større etterspørsel og gjøre det enklere å finne og distribuere problematisk materiale.
Google sier at selskapet i tillegg til å vedta prinsippene også har økt annonseringsstøtten til National Centre for Missing and Exploited Children (NCMEC) for å fremme initiativer for å øke bevisstheten og gi folk verktøy til å identifisere og rapportere overgrep.
Kilde: The Verge The Verge