Gli esperti ridicolizzano l'ipotesi dei politici britannici che un giorno l'IA sarà in grado di prendere decisioni sul campo di battaglia

Di: Bohdan Kaminskyi | 03.07.2023, 20:21

Esperti di diritto tecnologico e di software hanno discusso con la Camera dei Lord del Regno Unito la possibilità di trasferire la responsabilità delle decisioni di combattimento delle armi ad intelligenza artificiale.

Cosa si sa

I Lord hanno cercato di convincere gli esperti che tali armi potrebbero essere introdotte gradualmente o con cautela, apparentemente temendo di perdere il vantaggio nell'uso dell'IA per scopi militari.

Uno dei Lord ha chiesto se le armi di intelligenza artificiale possano rispettare i criteri di distinzione e proporzionalità. Il professor Christian Enemark ha risposto che solo gli esseri umani sono in grado di farlo e che l'azione autonoma di un'entità non umana è "un'assurdità filosofica".

L'esperta di etica dell'intelligenza artificiale Laura Nolan ha affermato che le armi dell'intelligenza artificiale non possono valutare la proporzionalità delle loro azioni, poiché non conoscono il valore strategico militare di un attacco. Secondo l'esperta, le armi sul campo di battaglia non conoscono altro che alcune immagini e l'apprendimento automatico. Inoltre, non comprendono il valore militare, che dipende dal contesto strategico più ampio.

Il ricercatore Taniel Yusef ha affermato che i semplici algoritmi di classificazione dei dati dei bersagli possono essere sbagliati. In questo caso, il rapporto sulle armi si baserebbe su una matematica corretta in termini di codice, ma non di realtà.

L'autrice ha espresso il timore che, senza uno strumento giuridicamente vincolante che sancisca il controllo umano sulle armi AI, questo aspetto non venga preso in considerazione.

Fonte: The Register.