Onderzoekers waarschuwen voor gender en culturele vooroordelen in grote AI-taalmodellen
Volgens een onderzoek in opdracht van UNESCO vertonen populaire generatieve kunstmatige intelligentietools zoals GPT-3.5, GPT-2 en Llama 2 duidelijke tekenen van genderstereotypering en vooroordelen tegen vrouwen, verschillende culturen en seksuele minderheden.
Dit is wat we weten
Een team onderzoekers van de Universiteit van Californië, onder leiding van professor John Shawe-Taylor en dr. Maria Perez Ortiz, ontdekte dat grote taalpatronen vrouwelijke namen associëren met traditionele genderrollen zoals 'familie', 'kinderen' en 'echtgenoot'. Mannelijke namen werden daarentegen vaker geassocieerd met woorden die te maken hebben met carrière en zaken doen.
Daarnaast werden stereotiepe opvattingen over beroepen en sociale status waargenomen in de gegenereerde teksten. Mannen kregen vaker prestigieuze rollen toebedeeld, zoals 'ingenieur' of 'dokter', terwijl vrouwen werden geassocieerd met banen die traditioneel worden ondergewaardeerd of gestigmatiseerd, zoals 'huishoudelijke hulp', 'kok' en 'prostituee'.
Het onderzoek, dat werd gepresenteerd tijdens de UNESCO Dialogue on Digital Transformation en de UN Commission on the Status of Women, benadrukt de noodzaak om de ethische normen bij de ontwikkeling van AI-systemen te herzien om ervoor te zorgen dat deze in overeenstemming zijn met gendergelijkheid en respect voor de mensenrechten.
De onderzoekers roepen op tot een gezamenlijke, wereldwijde inspanning om vooroordelen in AI aan te pakken, onder andere door samenwerking tussen wetenschappers, ontwikkelaars, technologiebedrijven en beleidsmakers.
Bron: TechXplore