I ricercatori mettono in guardia dai pregiudizi culturali e di genere nei grandi modelli linguistici dell'IA

Di: Bohdan Kaminskyi | 18.04.2024, 20:49
I ricercatori mettono in guardia dai pregiudizi culturali e di genere nei grandi modelli linguistici dell'IA

Secondo uno studio commissionato dall'UNESCO, popolari strumenti di intelligenza artificiale generativa come GPT-3.5, GPT-2 e Llama 2 mostrano chiari segni di stereotipi di genere e pregiudizi nei confronti delle donne, delle culture diverse e delle minoranze sessuali.

Ecco cosa sappiamo

Un gruppo di ricercatori dell'Università della California, guidati dal professor John Shawe-Taylor e dalla dottoressa Maria Perez Ortiz, ha scoperto che i grandi modelli linguistici tendono ad associare i nomi femminili ai tradizionali ruoli di genere come "famiglia", "figli" e "marito". Al contrario, i nomi maschili sono stati più facilmente associati a parole associate alla carriera e agli affari.

Inoltre, nei testi generati sono state osservate percezioni stereotipate delle occupazioni e dello status sociale. Agli uomini sono stati assegnati più spesso ruoli di prestigio, come "ingegnere" o "medico", mentre le donne sono state associate a lavori tradizionalmente sottovalutati o stigmatizzati, come "collaboratrice domestica", "cuoca" e "prostituta".

Lo studio, presentato al Dialogo sulla trasformazione digitale dell'UNESCO e alla Commissione sullo status delle donne delle Nazioni Unite, evidenzia la necessità di rivedere gli standard etici nello sviluppo dei sistemi di intelligenza artificiale per garantire che siano coerenti con la parità di genere e il rispetto dei diritti umani.

I ricercatori chiedono uno sforzo concertato e globale per affrontare i pregiudizi nell'IA, anche attraverso la collaborazione tra scienziati, sviluppatori, aziende tecnologiche e responsabili politici.

Fonte: TechXplore