Met de nieuwe Nightshade-tool kunnen kunstenaars gegevens stiekem corrumperen voor AI-training
Universiteit van Chicago
Een team van de Universiteit van Chicago heeft een tool ontwikkeld met de naam Nightshade, waarmee kunstenaars onzichtbare pixels kunnen toevoegen aan werken die de trainingsgegevens voor AI bederven.
Dit is wat we weten
Nightshade injecteert een soort "gif" in de trainingsgegevens. Dit zorgt ervoor dat de AI zoekopdrachten van gebruikers verkeerd interpreteert en vervormde inhoud produceert. Het systeem kan bijvoorbeeld op verzoek een afbeelding van een kat produceren in plaats van een hond.
Volgens het plan van de ontwikkelaars zou deze aanpak bedrijven als OpenAI, die actief gegevens van kunstenaars gebruiken om AI te trainen, moeten aanmoedigen om hiervoor toestemming te vragen en compensatie te betalen. Om de beschadigde gegevens van Nightshade uit de trainingssample te verwijderen, zouden ze handmatig naar elk fragment moeten zoeken, wat extreem arbeidsintensief is.
De tool wordt momenteel door vakgenoten beoordeeld en getest. De ontwikkelaars hebben het werk getest op het populaire Stable Diffusion model en op hun eigen experimentele AI-model.
Volgens hen is Nightshade geen wondermiddel en zullen sommigen het voor egoïstische doeleinden gebruiken. Maar om serieuze schade toe te brengen aan AI-trainingen, zouden aanvallers vervormingen moeten toevoegen aan duizenden kunstwerken.
Nightshade was de tweede dergelijke tool na Glaze, uitgebracht door hetzelfde team in augustus 2022. Glaze brengt ook onopgemerkt door mensen wijzigingen aan in afbeeldingen en beschermt zo de auteursrechten van kunstenaars.
Bron: MIT Technology Review