Il comitato di supervisione di Meta esaminerà i casi di utilizzo dell'IA per creare immagini esplicite
Mariia Shalabaieva/Unsplash
Il comitato di supervisione di Meta si è occupato di due casi che riguardano l'uso dell'intelligenza artificiale per creare immagini esplicite di personaggi pubblici. Il comitato vuole valutare l'efficacia delle politiche e delle pratiche di moderazione di Meta in merito a tali contenuti.
Ecco cosa sappiamo
Un caso riguarda un post su Instagram con un'immagine generata dall'intelligenza artificiale di una donna indiana nuda. Il post è stato pubblicato da un account che pubblica esclusivamente contenuti di questo tipo. Sebbene il post sia stato rimosso dopo il reclamo dell'utente, il suo ricorso non è stato preso in considerazione.
Il secondo caso riguarda un post di un gruppo Facebook che mostrava una "donna nuda generata dall'IA" con una didascalia che si riferiva a un "personaggio pubblico americano". Il post è stato rimosso da uno strumento di moderazione automatica, ma l'autore ha presentato ricorso.
Il comitato di supervisione ha deciso di esaminare entrambi i casi per valutare se Meta sta proteggendo in modo equo le donne di tutto il mondo da questi contenuti generati dall'intelligenza artificiale. La commissione ha chiesto al pubblico di commentare per quindici giorni e prevede di pubblicare presto la sua decisione e le raccomandazioni per le politiche di Meta.
L'Oversight Board ha già influenzato in passato la politica dell'azienda in materia di contenuti generati dall'intelligenza artificiale, come nel caso del video di Joe Biden. Di conseguenza, Meta ha accettato di etichettare un maggior numero di contenuti AI di questo tipo sulle sue piattaforme.
Fonte: Engadget