Meta a publié l'ensemble de données FACET afin d'examiner la partialité des modèles de vision par ordinateur.
Meta a dévoilé un nouvel outil, FACET, permettant d'évaluer l'équité de l'intelligence artificielle qui classifie et reconnaît les objets dans les photos et les vidéos, y compris les personnes.
Ce que nous savons
FACET se compose de 32 000 images et de 50 000 personnes étiquetées par des annotateurs humains. L'outil prend en compte différentes classes liées aux professions et aux activités, ainsi que des caractéristiques démographiques et physiques.
Meta a appliqué FACET à son propre algorithme de vision par ordinateur DINOv2. L'outil a détecté plusieurs biais dans le modèle, notamment à l'encontre des personnes présentant certaines caractéristiques de genre. Il a également constaté que DINOv2 avait tendance à stéréotyper les femmes en tant qu'"infirmières".
Meta reconnaît que FACET peut ne pas refléter de manière adéquate les concepts et les groupes démographiques du monde réel. En outre, de nombreuses représentations de professions dans l'ensemble de données peuvent avoir changé depuis la création de l'outil.
Par exemple, sur les photos prises pendant la pandémie de COVID-19, la plupart des médecins et des infirmières portent davantage d'équipements de protection individuelle qu'avant la pandémie.
Outre l'ensemble de données proprement dit, Meta a également fourni un outil permettant d'explorer les données. Pour l'utiliser, les développeurs doivent accepter de ne pas entraîner les modèles de vision artificielle sur FACET, mais seulement de les évaluer, de les tester et de les valider.
Source : TechCrunch TechCrunch