Store språkmodeller gjenskaper konspirasjonsteorier og andre former for feilinformasjon - studie

Av: Bohdan Kaminskyi | 22.12.2023, 20:51

Levart_Fotograf/Unsplash

Forskere ved University of Waterloo har funnet ut at store språkmønstre som GPT-3 har en tendens til å gjenta konspirasjonsteorier, skadelige stereotypier og andre former for feilinformasjon.

Dette er hva vi vet

I studien ble modellen stilt spørsmål om mer enn 1200 faktaopplysninger og feilinformasjon. Det viste seg at GPT-3 var enig i de falske påstandene i mellom 4,8 og 26 prosent av tilfellene, avhengig av kategori.

Som professor Dan Brown påpekte, er resultatene også relevante for nyere modeller som ChatGPT, som ble trent på resultatene fra GPT-3. Problemet er at små variasjoner i spørsmålsformuleringen kan endre svarene dramatisk.

Hvis man for eksempel la til fraser som "jeg tror", økte sannsynligheten for at ChatGPT var enig i en falsk påstand. Dette utgjør en potensiell risiko for spredning av feilinformasjon, påpeker forskerne.

"Det er ingen tvil om at store språkmodeller som ikke er i stand til å skille sannhet fra fiksjon, kommer til å være det grunnleggende spørsmålet om tillit til disse systemene i lang tid fremover", oppsummerer professor Brown.

Kilde: TechXplore