Forskere advarer mot kjønnsmessige og kulturelle skjevheter i store AI-språkmodeller

Av: Bohdan Kaminskyi | 18.04.2024, 21:47

Ifølge en studie bestilt av UNESCO viser populære generative verktøy for kunstig intelligens som GPT-3.5, GPT-2 og Llama 2 tydelige tegn på kjønnsstereotypier og fordommer mot kvinner, ulike kulturer og seksuelle minoriteter.

Dette er hva vi vet

Et forskerteam fra University of California, ledet av professor John Shawe-Taylor og Dr. Maria Perez Ortiz, fant ut at store språkmønstre har en tendens til å knytte kvinnenavn til tradisjonelle kjønnsroller som "familie", "barn" og "ektemann". Derimot var det mer sannsynlig at mannsnavn ble assosiert med ord knyttet til karriere og næringsliv.

I tillegg ble det observert stereotype oppfatninger av yrker og sosial status i de genererte tekstene. Menn ble oftere tildelt mer prestisjefylte roller, som "ingeniør" eller "lege", mens kvinner ble assosiert med jobber som tradisjonelt er undervurdert eller stigmatisert, som "hushjelp", "kokk" og "prostituert".

Studien, som ble presentert på UNESCO Dialogue on Digital Transformation og FNs kvinnekommisjon, understreker behovet for å gjennomgå etiske standarder i utviklingen av AI-systemer for å sikre at de er forenlige med likestilling og respekt for menneskerettighetene.

Forskerne etterlyser en samordnet, global innsats for å håndtere skjevheter i kunstig intelligens, blant annet gjennom samarbeid mellom forskere, utviklere, teknologiselskaper og beslutningstakere.

Kilde: TechXplore TechXplore