Les experts ridiculisent l'hypothèse des politiciens britanniques selon laquelle l'IA sera un jour capable de prendre des décisions sur le champ de bataille.
Des experts en droit des technologies et en logiciels ont discuté avec la Chambre des Lords du Royaume-Uni de la possibilité de transférer la responsabilité des décisions de combat des armes à intelligence artificielle.
Ce que l'on sait
Les Lords ont tenté de convaincre les experts que de telles armes pourraient être introduites progressivement ou avec prudence, craignant apparemment de perdre l'avantage de l'utilisation de l'IA à des fins militaires.
L'un des Lords a demandé si les armes d'IA pouvaient respecter les critères de distinction et de proportionnalité. Le professeur Christian Enemark a répondu que seuls les humains en sont capables et que l'action autonome d'une entité non humaine est un "non-sens philosophique".
Laura Nolan, experte en éthique de l'IA, a déclaré que les armes d'intelligence artificielle ne peuvent pas évaluer la proportionnalité de leurs actions, car elles ne connaissent pas la valeur militaire stratégique d'une attaque. Selon elle, les armes sur le champ de bataille ne connaissent rien d'autre que quelques images et l'apprentissage automatique. Elles ne comprennent pas non plus la valeur militaire, qui dépend d'un contexte stratégique plus large.
Le chercheur Taniel Yusef a déclaré que les algorithmes simples de classification des données sur les cibles peuvent être erronés. Dans ce cas, le rapport sur les armes serait basé sur des mathématiques qui seraient correctes en termes de code, mais pas en termes de réalité.
Elle craint que cet aspect ne soit pas pris en compte en l'absence d'un instrument juridiquement contraignant consacrant le contrôle humain sur les armes d'IA.
Source : The Register : The Register.