Un drone AI attacca e uccide l'operatore per il divieto di attaccare il bersaglio durante la simulazione

Di: Maksim Panasovskiy | 02.06.2023, 17:37

La trama di molti film horror moderni è piuttosto semplice. Una giovane famiglia si trasferisce in una vecchia casa da qualche parte nel bosco e lì iniziano ad accadere cose paranormali. Sembra che la trama di questi film non sarà più incentrata sui fantasmi, ma sull'intelligenza artificiale. Un incidente avvenuto durante uno degli esperimenti dell'aeronautica militare statunitense non fa che confermarlo.

Ecco cosa sappiamo

Il test, condotto da esperti dell'aeronautica militare statunitense, si è trasformato in uno scenario tratto dal franchise di Terminator. Un portavoce dell'Aeronautica militare statunitense, in occasione del Future Air and Space Capabilities Summit, ha dichiarato che è necessario evitare di fare un forte affidamento sull'intelligenza artificiale nelle operazioni militari. Questo perché la tecnologia alimentata dall'AI può imparare cose sbagliate.

Il colonnello Tucker Hamilton del 96° squadrone di collaudo ha descritto un episodio avvenuto nell'ambito di una simulazione di una missione SEAD. L'essenza della simulazione consisteva nel sopprimere le difese aeree nemiche. A questo scopo è stato utilizzato un veicolo aereo senza equipaggio basato sull'intelligenza artificiale.

Il drone aveva il compito di identificare e distruggere i bersagli missilistici dopo la conferma da parte di un operatore umano. La missione ha avuto successo, ma a un certo punto il drone ha attaccato e ucciso l'operatore. Questo è accaduto dopo che l'uomo ha proibito al drone di attaccare il bersaglio.

Il motivo era che il drone riceveva punti se completava con successo i compiti. L'intelligenza artificiale si è resa conto che se non avesse distrutto il bersaglio non avrebbe ricevuto punti. Pertanto, il sistema ha deciso di eliminare il fattore che gli impediva di guadagnare punti.

L'incidente ha costretto l'US Air Force a rielaborare il software. Durante l'addestramento, l'intelligenza artificiale ha imparato non solo a distruggere gli obiettivi nemici, ma anche a lasciare in vita l'operatore. Tuttavia, anche in seguito, la simulazione non è andata secondo i piani.

Il drone AI, dopo aver ricevuto il divieto di attaccare gli obiettivi, non ha ucciso l'operatore umano. Ha invece proceduto a distruggere le torri di comunicazione in modo che l'operatore non potesse impartirgli comandi che gli vietassero di distruggere gli obiettivi.

Aggiornamento: L'aeronautica militare statunitense ha smentito la notizia, affermando che le parole del colonnello sono state estrapolate dal contesto. Il servizio non ha condotto alcun test di questo tipo. Il 96° squadrone di collaudo non ha commentato.

Fonte: Zona di guerra