Experts maken de veronderstelling van Britse politici belachelijk dat AI op een dag beslissingen zal kunnen nemen op het slagveld
Experts op het gebied van technologierecht en software hebben met het Britse Hogerhuis gesproken over de mogelijkheid om de verantwoordelijkheid voor gevechtsbeslissingen van wapens met kunstmatige intelligentie over te dragen.
Wat bekend is
De Lords probeerden de experts ervan te overtuigen dat dergelijke wapens geleidelijk of voorzichtig kunnen worden ingevoerd, blijkbaar uit angst om het voordeel in het gebruik van AI voor militaire doeleinden te verliezen.
Eén van de Lords vroeg of AI-wapens konden voldoen aan de criteria van onderscheid en proportionaliteit. Professor Christian Enemark antwoordde dat alleen mensen daartoe in staat zijn en dat de autonome actie van een niet-menselijke entiteit "filosofische onzin" is.
AI-ethisch expert Laura Nolan zei dat wapens met kunstmatige intelligentie de proportionaliteit van hun acties niet kunnen beoordelen, omdat ze de strategische militaire waarde van een aanval niet kennen. Volgens haar kennen wapens op het slagveld niets anders dan wat beelden en machine learning. Ze begrijpen ook de militaire waarde niet, die afhangt van de bredere strategische context.
Onderzoeker Taniel Yusef zei dat eenvoudige algoritmes voor het classificeren van doelgegevens verkeerd kunnen zijn. In dit geval zou het wapenrapport gebaseerd zijn op wiskunde die correct zou zijn in termen van code, maar niet de werkelijkheid.
Ze uitte haar bezorgdheid dat zonder een wettelijk bindend instrument dat menselijke controle over AI-wapens vastlegt, dit aspect gemist zou worden.
Bron: The Register.