I sistemi di guida senza pilota riconoscono peggio i bambini e le persone con la pelle scura, secondo uno studio
I ricercatori del King's College di Londra sono giunti alla conclusione che i sistemi di guida senza pilota per automobili sono soggetti a pregiudizi, soprattutto nei confronti di bambini e persone di colore.
Ecco cosa sappiamo
Il team ha esaminato otto sistemi di intelligenza artificiale per il rilevamento dei pedoni utilizzati per la ricerca sulla guida autonoma. Hanno esaminato più di 8.000 immagini attraverso il software e hanno scoperto che l'intelligenza artificiale identificava i pedoni adulti quasi il 20% in più rispetto ai bambini.
Inoltre, i sistemi in questione sono risultati peggiori del 7,5% nel riconoscimento delle persone di pelle scura, soprattutto in condizioni di scarsa illuminazione, rendendo la tecnologia meno sicura di notte.
Lo studio non ha testato il software, già utilizzato da produttori di auto robot come Waymo e Cruise. Tuttavia, i risultati confermano ulteriormente le crescenti preoccupazioni sulla sicurezza della tecnologia.
Secondo i ricercatori, la ragione principale dei problemi di riconoscimento dei bambini e delle persone di pelle scura da parte dell'intelligenza artificiale è la distorsione dei dati utilizzati per addestrare gli algoritmi. In genere, gli adulti e le persone con la pelle chiara hanno maggiori probabilità di essere rappresentati nei set di dati.
Un portavoce di Waymo ha dichiarato che lo studio non rappresenta tutti gli strumenti utilizzati nelle auto dell'azienda. Oltre alle immagini delle telecamere, l'intelligenza artificiale riceve dati da sensori come lidar e radar, che migliorano l'accuratezza del rilevamento degli oggetti.
Waymo addestra inoltre il sistema a riconoscere il comportamento umano e si assicura che i set di dati siano rappresentativi.
Ritorno di fiamma
Gli algoritmi spesso riflettono i pregiudizi presenti negli insiemi di dati e nella mente delle persone che li creano. Un esempio comune è il software di riconoscimento facciale, che ha sempre mostrato una minore accuratezza nel riconoscimento dei volti delle donne, delle persone con la pelle scura e degli asiatici.
Tuttavia, queste preoccupazioni non hanno fermato l'entusiasmo per queste tecnologie AI. Il riconoscimento facciale è già stato responsabile dell'arresto ingiusto di persone di pelle scura in più di un'occasione.
Approfondisci:
- Una donna innocente all'ottavo mese di gravidanza è stata arrestata negli Stati Uniti per un errore di riconoscimento facciale
- La polizia di Detroit cambierà le regole sull'uso del riconoscimento facciale dopo aver arrestato per errore una donna incinta
Fonte: Gizmodo