Los sistemas de conducción no tripulada reconocen peor a los niños y a las personas de piel oscura, según un estudio

Por: Bohdan Kaminskyi | 25.08.2023, 21:24
Los sistemas de conducción no tripulada reconocen peor a los niños y a las personas de piel oscura, según un estudio

Investigadores del King's College de Londres han llegado a la conclusión de que los sistemas de conducción no tripulada para automóviles son propensos a los prejuicios, especialmente contra los niños y las personas de raza negra.

Esto es lo que sabemos

El equipo analizó ocho sistemas de inteligencia artificial para la detección de peatones utilizados en la investigación sobre conducción autónoma. Pasaron más de 8.000 imágenes por el software y descubrieron que la IA identificaba a los peatones adultos casi un 20% mejor que a los niños.

Además, los sistemas en cuestión eran un 7,5% peores a la hora de reconocer a personas de piel oscura, especialmente con poca luz, lo que hace que la tecnología sea menos segura por la noche.

El estudio no puso a prueba el software, que ya utilizan fabricantes de coches robóticos como Waymo y Cruise. Sin embargo, los resultados confirman aún más las crecientes preocupaciones sobre la seguridad de la tecnología.

Según los investigadores, la principal razón de los problemas de la IA para reconocer a los niños y a las personas de piel oscura es el sesgo de los datos utilizados para entrenar los algoritmos. Normalmente, los adultos y las personas de piel clara suelen estar más representados en los conjuntos de datos.

Un portavoz de Waymo dijo que el estudio no representa todas las herramientas utilizadas en los coches de la compañía. Además de las imágenes de la cámara, la IA recibe datos de sensores como el lidar y el radar, que mejoran la precisión de la detección de objetos.

Waymo también entrena al sistema para que reconozca el comportamiento humano y se asegura de que los conjuntos de datos sean representativos.

Flashback

Los algoritmos suelen reflejar sesgos presentes en los conjuntos de datos y en la mente de las personas que los crean. Un ejemplo común es el software de reconocimiento facial, que ha demostrado sistemáticamente una menor precisión a la hora de reconocer los rostros de mujeres, personas de piel oscura y asiáticos.

Sin embargo, estas preocupaciones no han frenado el entusiasmo por estas tecnologías de IA. El reconocimiento facial ya ha sido responsable de la detención injusta de personas de piel oscura en más de una ocasión.

Profundice:


Fuente: Gizmodo