Uit onderzoek blijkt dat onbemande besturingssystemen slechter zijn in het herkennen van kinderen en mensen met een donkere huidskleur
Onderzoekers van het King's College in Londen hebben geconcludeerd dat onbemande besturingssystemen voor auto's vatbaar zijn voor vooroordelen, vooral tegen kinderen en zwarte mensen.
Dit is wat we weten
Het team bekeek acht kunstmatige intelligentie voetgangerdetectiesystemen die worden gebruikt voor onderzoek naar autonoom rijden. Ze haalden meer dan 8.000 afbeeldingen door de software en ontdekten dat de AI volwassen voetgangers bijna 20 procent beter herkende dan kinderen.
Daarnaast waren de systemen in kwestie 7,5% slechter in het herkennen van mensen met een donkere huidskleur, vooral bij weinig licht, waardoor de technologie 's nachts minder veilig is.
Het onderzoek heeft de software, die al wordt gebruikt door robotautofabrikanten zoals Waymo en Cruise, niet getest. De resultaten bevestigen echter de groeiende bezorgdheid over de veiligheid van de technologie.
Volgens de onderzoekers is de belangrijkste reden voor AI's problemen met het herkennen van kinderen en mensen met een donkere huidskleur de bias in de data die gebruikt wordt om de algoritmes te trainen. Volwassenen en mensen met een lichte huid zijn vaker vertegenwoordigd in datasets.
Een woordvoerder van Waymo zei dat het onderzoek niet alle tools vertegenwoordigt die in de auto's van het bedrijf worden gebruikt. Naast camerabeelden ontvangt de AI gegevens van sensoren zoals lidar en radar, die de nauwkeurigheid van objectdetectie verbeteren.
Waymo traint het systeem ook om menselijk gedrag te herkennen en zorgt ervoor dat de datasets representatief zijn.
Terugblik
Algoritmes weerspiegelen vaak vooroordelen die aanwezig zijn in datasets en in de hoofden van de mensen die ze maken. Een veelvoorkomend voorbeeld is gezichtsherkenningssoftware, die consistent minder accuraat is bij het herkennen van gezichten van vrouwen, mensen met een donkere huidskleur en Aziaten.
Deze zorgen hebben het enthousiasme voor dergelijke AI-technologieën echter niet tegengehouden. Gezichtsherkenning is al meer dan eens verantwoordelijk geweest voor de onterechte arrestatie van mensen met een donkere huidskleur.
Ga dieper:
- Een onschuldige vrouw die acht maanden zwanger was, werd in de VS gearresteerd vanwege een fout in gezichtsherkenning
- De politie van Detroit gaat de regels voor het gebruik van gezichtsherkenning veranderen na de foutieve arrestatie van een zwangere vrouw
Bron: Gizmodo