Unbemannte Fahrsysteme erkennen Kinder und dunkelhäutige Menschen schlechter, so eine Studie
Forscher des King's College London sind zu dem Schluss gekommen, dass unbemannte Fahrsysteme für Autos anfällig für Voreingenommenheit sind, insbesondere gegenüber Kindern und schwarzen Menschen.
Was bekannt ist
Das Team untersuchte acht Fußgängererkennungssysteme mit künstlicher Intelligenz, die in der Forschung zum autonomen Fahren eingesetzt werden. Sie ließen mehr als 8 000 Bilder durch die Software laufen und stellten fest, dass die KI erwachsene Fußgänger fast 20 Prozent besser erkannte als Kinder.
Darüber hinaus erkannten die fraglichen Systeme dunkelhäutige Personen um 7,5 % schlechter, insbesondere bei schlechten Lichtverhältnissen, was die Technologie bei Nacht weniger sicher macht.
In der Studie wurde die Software, die bereits von Roboterautoherstellern wie Waymo und Cruise verwendet wird, nicht getestet. Die Ergebnisse bestätigen jedoch die wachsenden Bedenken hinsichtlich der Sicherheit der Technologie.
Den Forschern zufolge ist der Hauptgrund für die Probleme der KI bei der Erkennung von Kindern und dunkelhäutigen Menschen die Verzerrung der Daten, die zum Trainieren der Algorithmen verwendet werden. Normalerweise sind Erwachsene und hellhäutige Menschen eher in den Datensätzen vertreten.
Ein Waymo-Sprecher sagte, dass die Studie nicht alle in den Autos des Unternehmens verwendeten Tools repräsentiert. Zusätzlich zu den Kamerabildern erhält die KI auch Daten von Sensoren wie Lidar und Radar, die die Genauigkeit der Objekterkennung verbessern.
Waymo trainiert das System auch darauf, menschliches Verhalten zu erkennen und stellt sicher, dass die Datensätze repräsentativ sind.
Für diejenigen, die nicht Bescheid wissen
Algorithmen spiegeln oft Vorurteile wider, die in Datensätzen und in den Köpfen der Menschen, die sie erstellen, vorhanden sind. Ein gängiges Beispiel ist die Gesichtserkennungssoftware, die bei der Erkennung von Gesichtern von Frauen, dunkelhäutigen Menschen und Asiaten durchweg eine geringere Genauigkeit aufweist.
Diese Bedenken haben jedoch die Begeisterung für solche KI-Technologien nicht gebremst. Die Gesichtserkennung war bereits mehr als einmal für die ungerechtfertigte Verhaftung von dunkelhäutigen Menschen verantwortlich.
Für diejenigen, die mehr wissen wollen
- Eine unschuldige Frau, die im achten Monat schwanger war, wurde in den USA aufgrund eines Fehlers bei der Gesichtserkennung verhaftet
- Die Polizei von Detroit wird die Regeln für den Einsatz von Gesichtserkennung ändern, nachdem sie irrtümlich eine schwangere Frau verhaftet hat
Quelle: Gizmodo