Google har utvidet sitt bug bounty-program for sårbarheter i generative AI-systemer.

Av: Bohdan Kaminskyi | 27.10.2023, 21:19

Jakub Porzycki/Getty Images

Google har supplert sitt belønningsprogram for å finne sårbarheter med angrepsscenarier som er spesifikke for generativ kunstig intelligens.

Dette er hva vi vet

I bug bounty-programmet betaler Google etiske hackere kontantbelønning for å finne og avsløre sårbarheter på en ansvarlig måte. Ifølge selskapet stimulerer dette til forskning på AI-sikkerhet og bidrar til å identifisere potensielle problemer for å gjøre teknologien sikrere.

På grunn av de nye sikkerhetsproblemene knyttet til kunstig intelligens har Google bestemt seg for å revurdere hvordan de kategoriserer feil i systemene sine. For å gjøre dette bruker selskapet data fra sitt AI Red Team som modellerer ulike cyberangrep.

Teamet oppdaget blant annet at språkmodeller er sårbare for at angripere kan legge inn ondsinnede hint og hente ut opplæringsdata. Slike scenarier dekkes nå av bug bounty-programmet.

Feil som innebærer brudd på opphavsretten eller utvinning av ufølsomme data, vil imidlertid ikke bli belønnet.

Belønningsbeløpet vil avhenge av hvor alvorlig den oppdagede sårbarheten er. Google betalte forskere mer enn 12 millioner dollar i 2022.

Kilde: TechCrunch