Uit onderzoek blijkt dat onbemande besturingssystemen slechter zijn in het herkennen van kinderen en mensen met een donkere huidskleur

Via: Bohdan Kaminskyi | 25.08.2023, 21:24
Uit onderzoek blijkt dat onbemande besturingssystemen slechter zijn in het herkennen van kinderen en mensen met een donkere huidskleur

Onderzoekers van het King's College in Londen hebben geconcludeerd dat onbemande besturingssystemen voor auto's vatbaar zijn voor vooroordelen, vooral tegen kinderen en zwarte mensen.

Dit is wat we weten

Het team bekeek acht kunstmatige intelligentie voetgangerdetectiesystemen die worden gebruikt voor onderzoek naar autonoom rijden. Ze haalden meer dan 8.000 afbeeldingen door de software en ontdekten dat de AI volwassen voetgangers bijna 20 procent beter herkende dan kinderen.

Daarnaast waren de systemen in kwestie 7,5% slechter in het herkennen van mensen met een donkere huidskleur, vooral bij weinig licht, waardoor de technologie 's nachts minder veilig is.

Het onderzoek heeft de software, die al wordt gebruikt door robotautofabrikanten zoals Waymo en Cruise, niet getest. De resultaten bevestigen echter de groeiende bezorgdheid over de veiligheid van de technologie.

Volgens de onderzoekers is de belangrijkste reden voor AI's problemen met het herkennen van kinderen en mensen met een donkere huidskleur de bias in de data die gebruikt wordt om de algoritmes te trainen. Volwassenen en mensen met een lichte huid zijn vaker vertegenwoordigd in datasets.

Een woordvoerder van Waymo zei dat het onderzoek niet alle tools vertegenwoordigt die in de auto's van het bedrijf worden gebruikt. Naast camerabeelden ontvangt de AI gegevens van sensoren zoals lidar en radar, die de nauwkeurigheid van objectdetectie verbeteren.

Waymo traint het systeem ook om menselijk gedrag te herkennen en zorgt ervoor dat de datasets representatief zijn.

Terugblik

Algoritmes weerspiegelen vaak vooroordelen die aanwezig zijn in datasets en in de hoofden van de mensen die ze maken. Een veelvoorkomend voorbeeld is gezichtsherkenningssoftware, die consistent minder accuraat is bij het herkennen van gezichten van vrouwen, mensen met een donkere huidskleur en Aziaten.

Deze zorgen hebben het enthousiasme voor dergelijke AI-technologieën echter niet tegengehouden. Gezichtsherkenning is al meer dan eens verantwoordelijk geweest voor de onterechte arrestatie van mensen met een donkere huidskleur.

Ga dieper:


Bron: Gizmodo