Le principali aziende di AI si accordano per affrontare le immagini di abusi sui minori

Di: Bohdan Kaminskyi | 23.04.2024, 22:53

Steve Johnson/Unsplash

Le principali aziende che si occupano di intelligenza artificiale, tra cui Google, Meta, OpenAI, Microsoft e Amazon, hanno deciso di adottare misure per evitare che il materiale relativo allo sfruttamento sessuale dei minori (CSAM) venga utilizzato nei set di dati per l'addestramento dei modelli di intelligenza artificiale.

Ecco cosa sappiamo

I giganti della tecnologia hanno sottoscritto una nuova serie di principi volti a limitare la diffusione del CSAM. Si impegnano a garantire che i dati di addestramento non contengano contenuti dannosi, a evitare i set di dati con un alto rischio di includere tale materiale e a rimuovere tali immagini o i relativi link dalle fonti di dati.

Inoltre, le aziende intendono sottoporre a "stress test" i modelli di IA per garantire che non generino contenuti CSAM e rilasciare i modelli solo dopo averne valutato la conformità ai requisiti di sicurezza dei bambini.

All'iniziativa hanno aderito anche aziende come Anthropic, Civitai, Metaphysic, Mistral AI e Stability AI.

La crescente popolarità dell'IA generativa ha alimentato la proliferazione di immagini false online, tra cui foto sintetiche di sfruttamento sessuale di minori. Recenti ricerche hanno rivelato la presenza di riferimenti al CSAM in alcuni popolari set di dati per l'addestramento dei modelli di IA.

Thorn, un'organizzazione no-profit dedicata alla lotta contro gli abusi sui minori che ha contribuito allo sviluppo delle linee guida, avverte che la generazione di CSAM attraverso l'IA potrebbe impedire l'identificazione delle vittime, creare una maggiore domanda e rendere più facile la ricerca e la distribuzione di materiale problematico.

Google afferma che, oltre ad aver adottato i principi, l'azienda ha anche aumentato le sovvenzioni pubblicitarie al National Centre for Missing and Exploited Children (NCMEC) per promuovere iniziative di sensibilizzazione e fornire alle persone gli strumenti per identificare e segnalare gli abusi.

Fonte: The Verge