Med det nye Nightshade-verktøyet kan kunstnere i smug ødelegge data for AI-trening
Universitetet i Chicago
Et team ved University of Chicago har utviklet et verktøy kalt Nightshade, som gir kunstnere muligheten til å legge til usynlige piksler i verk som ødelegger treningsdata for kunstig intelligens.
Dette er hva vi vet
Nightshade fungerer på den måten at det injiserer en slags "gift" i treningsdataene. Dette gjør at den kunstige intelligensen feiltolker brukerens spørsmål og produserer forvrengt innhold. Systemet kan for eksempel produsere et bilde av en katt i stedet for en hund på forespørsel.
Ifølge utviklernes plan skal denne tilnærmingen oppmuntre selskaper som OpenAI, som aktivt bruker kunstneres data til å trene opp AI, til å be om tillatelse til å gjøre dette og betale kompensasjon. For å fjerne Nightshades korrupte data fra treningseksemplaret må de søke manuelt etter hvert enkelt fragment, noe som er ekstremt arbeidskrevende.
Verktøyet gjennomgår for øyeblikket fagfellevurdering og testing. Utviklerne har testet det på den populære Stable Diffusion-modellen og på sin egen eksperimentelle AI-modell.
Ifølge dem er Nightshade ikke et universalmiddel, og noen kan bruke det til egoistiske formål. Men for å gjøre alvorlig skade på AI-treningen må angriperne legge til forvrengninger i tusenvis av kunstverk.
Nightshade var det andre verktøyet av denne typen etter Glaze, som ble lansert av det samme teamet i august 2022. Glaze gjør også endringer i bilder uten at mennesker legger merke til det, noe som beskytter kunstnernes opphavsrettigheter.
Kilde: MIT Technology Review: MIT Technology Review