Selon une étude, les systèmes de conduite sans pilote reconnaissent moins bien les enfants et les personnes à la peau foncée

Par: Bohdan Kaminskyi | 25.08.2023, 20:24
Selon une étude, les systèmes de conduite sans pilote reconnaissent moins bien les enfants et les personnes à la peau foncée

Des chercheurs du King's College de Londres ont conclu que les systèmes de conduite sans pilote pour les voitures sont sujets à des préjugés, en particulier à l'encontre des enfants et des Noirs.

Voici ce que nous savons

L'équipe a examiné huit systèmes de détection des piétons par intelligence artificielle utilisés pour la recherche sur la conduite autonome. Ils ont fait passer plus de 8 000 images par le logiciel et ont constaté que l'intelligence artificielle identifiait les piétons adultes presque 20 % mieux que les enfants.

En outre, les systèmes en question étaient 7,5 % moins performants pour reconnaître les personnes à la peau foncée, en particulier dans des conditions de faible luminosité, ce qui rend la technologie moins sûre la nuit.

L'étude n'a pas testé le logiciel, qui est déjà utilisé par des fabricants de voitures robotisées comme Waymo et Cruise. Cependant, les résultats confirment les inquiétudes croissantes concernant la sécurité de la technologie.

Selon les chercheurs, la principale raison pour laquelle l'IA a du mal à reconnaître les enfants et les personnes à la peau foncée est le biais dans les données utilisées pour former les algorithmes. En règle générale, les adultes et les personnes à la peau claire sont mieux représentés dans les ensembles de données.

Un porte-parole de Waymo a déclaré que l'étude ne représentait pas tous les outils utilisés dans les voitures de l'entreprise. En plus des images de la caméra, l'IA reçoit des données de capteurs comme le lidar et le radar, qui améliorent la précision de la détection des objets.

Waymo entraîne également le système à reconnaître le comportement humain et s'assure que les ensembles de données sont représentatifs.

Retour de flamme

Les algorithmes reflètent souvent les biais présents dans les ensembles de données et dans l'esprit des personnes qui les créent. Un exemple courant est celui des logiciels de reconnaissance faciale, qui se sont toujours révélés moins précis lorsqu'il s'agissait de reconnaître les visages de femmes, de personnes à la peau foncée et d'Asiatiques.

Toutefois, ces préoccupations n'ont pas empêché l'enthousiasme pour ces technologies d'IA. La reconnaissance faciale a déjà été à l'origine de l'arrestation injuste de personnes à la peau foncée à plusieurs reprises.

Approfondir :


Source : Gizmodo Gizmodo