A. El Johari LLM
in: Militair Rechtelijk Tijdchrift jg 118-2025, aflevering 2
Dit artikel, geschreven door A. El Johari, onderzoekt of Israëls gebruik van AI-systemen in de bezette Palestijnse gebieden voldoet aan de internationale wettelijke normen. Twee prominente AI-systemen worden hierbij beoordeeld: het Lavender-systeem voor het genereren van doelen en het Blue Wolf-systeem voor gezichtsherkenning en biometrische surveillance. Het artikel analyseert het Lavender-systeem in het kader van het internationaal humanitair recht (IHL) en Blue Wolf in het kader van het internationaal humanitair recht (IHRL), aangezien Lavender wordt gebruikt voor vijandelijkheden en Blue Wolf in de civiele sfeer.
Het Lavender-systeem is een AI-gestuurd beslissingsondersteunend systeem (AI-DSS) dat potentiële menselijke doelwitten voor luchtaanvallen identificeert. Hoewel het systeem zelf geen wapen is, is het gebruik ervan onderworpen aan de regels van het IHL met betrekking tot oorlogsmethoden. IHL-verdragen reguleren militaire AI-DSS niet specifiek, maar hun gebruik moet wel voldoen aan het bestaande IHL-kader, en de verantwoordelijkheid hiervoor ligt bij de staat die de systemen inzet.
De inzet van Lavender roept juridische zorgen op met betrekking tot fundamentele IHL-principes zoals onderscheid, proportionaliteit en voorzorgsmaatregelen bij aanvallen. Het beginsel van onderscheid vereist dat de operator van een militair AI-DSS onderscheid kan maken tussen militaire doelen en civiele objecten, en tussen strijders en burgers. Het beginsel van voorzorg vereist constante zorg om de burgerbevolking, burgers en civiele objecten te sparen.
Volgens rapporten keuren commandanten AI-gegenereerde doelen soms binnen enkele seconden goed, zonder een zinvolle menselijke controle. Een functionaris gaf aan dat hij slechts 20 seconden had voor elk doelwit en dat zijn menselijke toezicht "nul toegevoegde waarde" had. Dit gebrek aan toezicht leidt tot fouten, waarbij burgers ten onrechte als militaire doelwitten worden aangemerkt. Hierdoor voldoet Israël niet aan de vereisten van onderscheid en proportionaliteit, en het gebruik van AI-DSS als Lavender zonder effectief menselijk toezicht schendt waarschijnlijk het beginsel van voorzorg.
Blue Wolf is een gezichtsherkenningssysteem dat wordt gebruikt in de Westelijke Jordaanoever en Oost-Jeruzalem om Palestijnen te scannen bij checkpoints, waarbij hun gezichten worden toegevoegd aan een database. Dit systeem wordt ook gebruikt voor massasurveillance, waarbij de gezichten van Palestijnen zonder hun medeweten of toestemming worden verzameld en gecatalogiseerd.
Het gebruik van gezichtsherkenning en biometrische surveillance raakt aan het recht op privacy, zoals vastgelegd in artikel 17 van het Internationaal Verdrag inzake Burgerrechten en Politieke Rechten (ICCPR). Een bezettende mogendheid moet voldoen aan de cumulatieve vereisten van wettelijkheid, legitieme doelen, noodzakelijkheid en proportionaliteit om dergelijke technologieën te mogen gebruiken.
Volgens rapporten wordt de surveillancetechnologie zoals Blue Wolf door Israël gebruikt voor politieke vervolging. Dit zou niet voldoen aan het criterium van een "legitiem doel", omdat dit volgens het ICCPR mogelijk moet zijn ter bescherming van nationale veiligheid, openbare orde, openbare gezondheid of moraal en de rechten en vrijheden van anderen.
Het scannen van de gezichten van mensen in openbare ruimtes, ongeacht of ze op een verdachtenlijst staan, kan worden beschouwd als "indiscriminate mass surveillance" en een "potentieel disproportionele inmenging in het recht op privacy". Sommige deskundigen beschouwen systemen voor grootschalige gezichtsherkenning als "inherent disproportioneel". Het wijdverbreide gebruik van gezichtsherkenning in de bezette gebieden, toegepast op hele bevolkingsgroepen, riskeert een schending van de menselijke waardigheid en de humane behandeling, zoals die worden gegarandeerd in artikel 27 van de Vierde Geneefse Conventie.
Samenvatting m.b.v. Gemini AI