Meta ha rilasciato il set di dati FACET per esaminare i modelli di visione computerizzata per verificare l'assenza di bias

Di: Bohdan Kaminskyi | 01.09.2023, 20:02
Meta ha rilasciato il set di dati FACET per esaminare i modelli di visione computerizzata per verificare l'assenza di bias

Meta ha presentato un nuovo strumento, FACET, per valutare la correttezza dell'intelligenza artificiale che classifica e riconosce gli oggetti in foto e video, comprese le persone.

Ecco cosa sappiamo

FACET è costituito da 32.000 immagini con 50.000 persone etichettate da annotatori umani. Lo strumento tiene conto di diverse classi relative a occupazioni e attività, nonché di caratteristiche demografiche e fisiche.

Meta ha applicato FACET al proprio algoritmo di computer vision DINOv2. Lo strumento ha riscontrato diversi pregiudizi nel modello, tra cui quello nei confronti di persone con determinate caratteristiche di genere. Inoltre, ha rilevato che DINOv2 tendeva a stereotipare le donne come "infermiere".

Meta riconosce che FACET potrebbe non riflettere adeguatamente i concetti e i gruppi demografici del mondo reale. Inoltre, molte delle rappresentazioni delle professioni presenti nel dataset potrebbero essere cambiate da quando lo strumento è stato creato.

Ad esempio, la maggior parte dei medici e degli infermieri nelle foto scattate durante la pandemia COVID-19 indossano più dispositivi di protezione individuale rispetto a prima della pandemia.

Oltre al dataset stesso, Meta ha fornito anche uno strumento per esplorare i dati. Per utilizzarlo, gli sviluppatori devono accettare di non addestrare modelli di computer vision su FACET, ma solo di valutarli, testarli e validarli.

Fonte: TechCrunch