Israël gebruikt kunstmatige intelligentie om doelwitten in Gazastrook te identificeren - Media
CHUTTERSNAP/Unsplash.
Het Israëlische leger gebruikt een kunstmatig intelligentiesysteem genaamd "Lavender" om bombardementsdoelen in de Gazastrook te selecteren. Het systeem werd ontwikkeld na raketaanvallen van Hamas in oktober 2023, volgens een onderzoek van lokale publicaties van +972 Magazine en Local Call.
Dit is wat we weten
Volgens bronnen markeerde Lavender op zijn hoogtepunt ongeveer 37.000 Palestijnen in Gaza als "vermoedelijke Hamas-militanten" en gaf het toestemming om ze te vernietigen. Het Israëlische leger ontkent echter het bestaan van een dergelijke lijst en zegt dat de AI niet wordt gebruikt om vermoedelijke terroristen te identificeren, maar slechts een "hulpmiddel voor analisten" is in het doelselectieproces.
Volgens het stuk bevatten de gegevens die gebruikt werden om Lavender te trainen niet alleen informatie over bekende Hamas-militanten, maar ook over mensen met weinig connecties met de organisatie. Het systeem werd getraind om "kenmerken" van vermoedelijke militanten te identificeren, zoals lidmaatschap van WhatsApp-groepen met hen of frequente veranderingen van mobiele telefoons. Bronnen schatten dat ongeveer 10 procent van de mensen die door Lavender werden geïdentificeerd niet daadwerkelijk lid waren van Hamas.
Het leger, dat het systeem gebruikte, zei dat het de doelen die door Lavender waren geïdentificeerd niet onafhankelijk hoefde te verifiëren voordat het aanvallen uitvoerde. Dit resulteerde in veel burgerslachtoffers die "statistisch werden behandeld". In sommige gevallen waren familieleden van vermoedelijke militanten ook het doelwit.
Deskundigen zien het gebruik van Lavender als een voortzetting van het beleid van massasurveillance en collectieve bestraffing van Palestijnen dat Israël al jaren voert. Ze roepen op om ervoor te zorgen dat oorlogstijd de massamoord op burgers niet rechtvaardigt.
Bron: The Verge