"Fullstendig søppel": Hackere har kritisert dagens AI-sikkerhetstesting

På DEF CON, verdens største hackerkonferanse, uttalte ledende cybersikkerhetsforskere at dagens metoder for å beskytte systemer med kunstig intelligens (AI) er fundamentalt mangelfulle og krever en fullstendig overhaling.
Her er hva vi vet
Konferansens første Hackers' Almanac-rapport, som ble produsert i samarbeid med University of Chicagos Cyber Policy Initiative, setter spørsmålstegn ved effektiviteten til "red team"-metoden, som går ut på at sikkerhetseksperter skanner AI-systemer for sårbarheter. Sven Cattell, som leder AI Village DEF CON, sier at metoden ikke gir tilstrekkelig beskyttelse mot nye trusler fordi dokumentasjonen av AI-modeller er fragmentert og vurderingene som inngår i dokumentasjonen, er utilstrekkelige.
På konferansen testet rundt 500 deltakere AI-modeller, og selv nybegynnere lyktes i å finne sårbarheter. Forskerne etterlyste strukturer som ligner på CVE-rammeverket (Common Vulnerabilities and Exposures), som har vært brukt innen tradisjonell cybersikkerhet siden 1999, for å standardisere hvordan AI-sårbarheter dokumenteres og utbedres.
Kilde: DEF CON DEF CON