Il nuovo strumento Nightshade consente agli artisti di corrompere surrettiziamente i dati per l'addestramento dell'IA
Università di Chicago
Un team dell'Università di Chicago ha sviluppato uno strumento chiamato Nightshade, che dà agli artisti la possibilità di aggiungere pixel invisibili alle opere che rovinano i dati di addestramento per l'IA.
Ecco cosa sappiamo
Nightshade funziona iniettando una sorta di "veleno" nei dati di addestramento. Questo fa sì che l'intelligenza artificiale interpreti male le richieste degli utenti e produca contenuti distorti. Ad esempio, il sistema può produrre, su richiesta, l'immagine di un gatto anziché di un cane.
Secondo il piano degli sviluppatori, questo approccio dovrebbe incoraggiare aziende come OpenAI, che utilizzano attivamente i dati degli artisti per addestrare l'IA, a chiedere il permesso di farlo e a pagare un compenso. Per rimuovere i dati corrotti di Nightshade dal campione di addestramento, si dovrebbe cercare manualmente ogni frammento di questo tipo, il che richiede molto lavoro.
Lo strumento è attualmente in fase di revisione e test tra pari. Gli sviluppatori hanno testato il suo lavoro sul popolare modello Stable Diffusion e sul proprio modello sperimentale di intelligenza artificiale.
Secondo loro, Nightshade non è una panacea e alcuni potrebbero usarlo per scopi egoistici. Ma per danneggiare seriamente l'addestramento dell'IA, gli aggressori dovrebbero aggiungere distorsioni a migliaia di opere d'arte.
Nightshade è il secondo strumento di questo tipo dopo Glaze, rilasciato dallo stesso team nell'agosto del 2022. Anche Glaze apporta modifiche alle immagini senza essere notato dagli esseri umani, proteggendo i diritti d'autore degli artisti.
Fonte: MIT Technology Review