Meta hat den FACET-Datensatz veröffentlicht, um Computer-Vision-Modelle auf Verzerrungen zu untersuchen
Meta hat ein neues Tool namens FACET vorgestellt, mit dem die Fairness künstlicher Intelligenz bei der Klassifizierung und Erkennung von Objekten in Fotos und Videos, einschließlich Menschen, bewertet werden kann.
Was bekannt ist
FACET besteht aus 32.000 Bildern mit 50.000 Personen, die von menschlichen Beobachtern gekennzeichnet wurden. Das Tool berücksichtigt verschiedene Klassen in Bezug auf Berufe und Tätigkeiten sowie demografische und physische Merkmale.
Meta wendete FACET auf seinen eigenen Computer-Vision-Algorithmus DINOv2 an. Das Tool fand mehrere Verzerrungen im Modell, unter anderem gegen Personen mit bestimmten Geschlechtsmerkmalen. Es stellte auch fest, dass DINOv2 dazu neigt, Frauen als "Krankenschwestern" zu stereotypisieren.
Meta erkennt an, dass FACET reale Konzepte und demografische Gruppen möglicherweise nicht angemessen widerspiegelt. Darüber hinaus können sich viele der im Datensatz enthaltenen Darstellungen von Berufen seit der Erstellung des Tools geändert haben.
So tragen beispielsweise die meisten Ärzte und Krankenschwestern auf Fotos, die während der COVID-19-Pandemie aufgenommen wurden, mehr persönliche Schutzausrüstung als vor der Pandemie.
Neben dem Datensatz selbst stellte Meta auch ein Tool zur Verfügung, mit dem die Daten untersucht werden können. Um es nutzen zu können, müssen sich die Entwickler verpflichten, keine Computer-Vision-Modelle auf FACET zu trainieren, sondern sie nur zu bewerten, zu testen und zu validieren.
Quelle: TechCrunch