Vastgesteld 31 mei 2016
De vaste commissie voor Buitenlandse Zaken heeft een aantal vragen en opmerkingen voorgelegd aan de Ministers van Buitenlandse Zaken en van Defensie over de brief van 4 maart 2016 inzake de kabinetsreactie op het advies «Autonome wapensystemen: de noodzaak van betekenisvolle menselijke controle» van de Adviesraad Internationale Vraagstukken (AIV) en de Commissie van Advies inzake Volkenrechtelijke Vraagstukken (CAVV) (Kamerstukken 34 300 X/ V, nr. 88).
De vragen en opmerkingen zijn op 22 april 2016 aan de Ministers van Buitenlandse Zaken en van Defensie voorgelegd. Bij brief van 30 mei 2016 zijn de vragen beantwoord.
De voorzitter van de commissie, Eijsink
De griffier van de commissie, Van Toor
De leden van de VVD-fractie hebben met belangstelling kennisgenomen van het AIV/CAVV-advies en de kabinetsreactie daarop. De leden van de VVD-fractie hebben hierover nog enkele vragen en opmerkingen.
De leden van de PvdA-fractie danken de AIV en de CAVV voor hun adviesrapport over autonome wapensystemen (ook wel «killer robots» genoemd) en het kabinet voor de reactie hierop. Zij onderkennen het belang om de technologische ontwikkeling van dergelijke wapensystemen en van de toepassing hiervan in gewapende conflicten nauwgezet te volgen. Naar aanleiding van het advies en de kabinetsreactie hebben de genoemde leden een aantal vragen en opmerkingen.
De leden van de SP-fractie hebben kennis genomen van de reactie van de Ministers van Buitenlandse Zaken en van Defensie op het rapport van de AIV en CAVV over autonome wapensystemen, die binnen de NGO-wereld ook wel bekend staan als Killer Robots. Ook hebben de SP-leden kennis genomen van de stevige kritiek vanuit NGO’s en wetenschappers op autonome wapensystemen. De SP-leden hebben hier nog een aantal vragen en opmerkingen over.
De leden van de D66-fractie hebben met belangstelling kennis genomen van het Rapport van de Adviesraad Internationale Vraagstukken (AIV) en de Commissie van Advies Inzake Volkenrechtelijke Vraagstukken (CAVV) «Autonome wapensystemen: de noodzaak van betekenisvolle menselijke controle» vastgesteld op 12 oktober 2015 en de reactie van het kabinet hierop van 4 maart 2016. Graag willen de leden hier de regering nog enkele vragen over stellen.
De leden van de fractie van GroenLinks maken zich zorgen over de beleidsreactie over autonome wapensystemen. Tegelijk waarderen de leden het feit dat Nederland de discussie aangaat in internationale fora en consensus zoekt over de definitie van betekenisvolle menselijke controle. Wat GroenLinks betreft zet de regering hier ten onrechte in voor wapens met controle «in the wider loop», terwijl zij zou moeten pleiten voor minimaal controle «on the loop.» GroenLinks is dan ook van mening dat er een verbod moet komen op autonome wapens.
Het kabinet dankt de Tweede Kamerleden voor hun vragen en opmerkingen. Alvorens over te gaan tot de inhoudelijke beantwoording daarvan hecht het kabinet eraan het verschil te onderstrepen tussen autonome wapensystemen, die – mits verantwoord gebruikt – onder betekenisvolle menselijke controle staan, en volledig autonome wapensystemen, die niet onder menselijke controle staan en waaronder volgens het kabinet ook de zogeheten «killer robots» vallen.
Zoals in de kabinetsreactie op het AIV/CAVV-advies is aangegeven, verwerpt het kabinet op voorhand de ontwikkeling en de inzet van volledig autonome wapensystemen die niet onder menselijke controle staan. De Nederlandse inzet in internationaal verband is er dan ook op gericht om te voorkomen dat dergelijke systemen ooit ontwikkeld dan wel gebruikt zullen worden. Op dit moment acht het kabinet een moratorium op de ontwikkeling van dergelijke wapens echter niet de juiste aanpak: een moratorium is op dit moment zowel technisch/ inhoudelijk als politiek niet haalbaar.
Daarbij benadrukt het kabinet het belang van een brede maatschappelijke discussie over autonome wapensystemen. Daarom heeft het hierover ook het afgelopen jaar meerdere malen met maatschappelijke en wetenschappelijke organisaties van gedachten gewisseld. Het kabinet ziet ernaar uit deze discussie voort te zetten.
De AIV/CAVV is van mening dat tijdens de komende bijeenkomsten van de Convention on Certain Conventional Weapons (CCW) zo snel als mogelijk overeenstemming moet worden bereikt over de definitie van een autonoom wapen en het concept van betekenisvolle menselijke controle. De Ministers schrijven in hun reactie dat de instelling van een Governmental Group of Experts nog niet op voldoende steun kon rekenen binnen de CCW. Nederland zal deelnamen aan de Expert Meeting in april 2016. De leden van de VVD-fractie vragen of de Ministers bereid zijn de Kamer te berichten over de uitkomsten van die meeting? En welke inzet is het kabinet van plan te plegen om ook binnen de NAVO tot afspraken te komen op dit thema?
Tijdens de CCW expertvergadering in april 2016 gaven experts presentaties over onderwerpen als ontwikkelingen in de autonomie, definitiekwesties, humanitair oorlogsrecht, mensenrechten, ethiek en internationale veiligheid. Uit de discussie bleek onder andere dat de meeste landen ook hechten aan voortgaande discussie over de zogenaamde artikel 36-procedure, de toetsingsprocedure van nieuwe middelen en methoden van oorlogvoering gebaseerd op artikel 36 van het Eerste Aanvullende Protocol bij de Geneefse Verdragen.
Daarnaast was de belangrijkste overkoepelende vraag hoe verder te gaan met de discussie over «lethal autonomous weapon systems» (LAWS). Hierbij bestond een breed gedeelde overtuiging dat dit onderwerp op de agenda van de CCW dient te blijven staan. Nagenoeg alle landen steunden dan ook de aanbeveling aan de CCW Toetsingsconferentie, die dit jaar in december zal plaatsvinden, om een Group of Governmental Experts (GGE) over LAWS op te richten om de discussies verder te verdiepen. Alleen China en Rusland plaatsten hierbij openlijk hun bedenkingen.
Wat betreft het mandaat van een eventuele GGE verschillen de meningen tussen landen aanzienlijk. Veruit de meeste van de 121 bij de CCW aangesloten landen, waaronder ook Nederland, zien graag een GGE met een discussiemandaat, en geen onderhandelingsmandaat dat zou moeten leiden tot beperkende maatregelen, zoals een additioneel protocol onder de CCW. Dit in tegenstelling tot de meeste NGO’s en een aantal landen (Algerije, Bolivia, Cuba, Chili, Costa Rica, Ecuador, Egypte, Ghana, Mexico, Nicaragua, Pakistan en Zimbabwe), die van mening zijn dat additionele beperkende maatregelen voor LAWS nodig zijn.
Het kabinet is van mening dat de discussie over internationaalrechtelijke aspecten van autonome wapensystemen in de eerste plaats in de CCW – waar ook alle NAVO-landen partij bij zijn – dient te worden gevoerd. Dit neemt niet weg dat er ook in de NAVO belangstelling voor dit onderwerp bestaat. Zo publiceerde het hoofdkwartier van de NAVO in 2015 het openbare rapport «Autonomous-systems: issues for Defence policy makers».
De AIV/CAVV adviseert dat altijd sprake moet zijn van betekenisvolle menselijke controle wanneer de Nederlandse krijgsmacht in de toekomst overgaat tot de aanschaf en inzet van autonome wapensystemen. De Ministers schrijven dat in de actualisering van de Strategische Kennis en Innovatieagenda (SKIA) van Defensie aandacht zal worden besteed aan autonome systemen en de relatie mens-machine. Kunnen de Ministers dit nader toelichten? Bestaan hierover al ideeën en zo ja, welke? In hoeverre wordt daarbij samengewerkt met en gekeken naar andere landen, zo vragen de leden van de VVD-fractie.
In de nieuwe SKIA wordt het onderwerp «mens-machine» naar aanleiding van de snelle technologische ontwikkelingen op het gebied van «onbemand» en «autonoom» als speerpunt aangewezen.
Binnen het veiligheidsdomein nemen onbemande systemen tot op heden alleen menselijke taken over – de bekende «Dirty, Dull en Dangerous» taken – zonder dat dit verder grote gevolgen heeft voor de bestaande mens-machine relatie. De mens fungeert daarbij nog steeds vooral als operator. De nieuwe generatie onbemande systemen vraagt echter om nieuwe organisatieconcepten, aangezien de relatie tussen mens en machine verandert en meer uitgaat van het principe van samenwerking. Daarbij ontstaat een conceptuele uitdaging om te komen tot een nieuwe taakverdeling tussen mens en machine.
Wanneer het gaat om militaire (semi-) autonoom opererende systemen ontstaat er niet alleen een technisch vraagstuk, maar ook een juridisch en ethisch vraagstuk.
Nadat de SKIA is vastgesteld, zal het speerpunt «mens-machine» vertaald worden in concrete onderzoeksprojecten, die vervolgens bij kennisinstituten, zoals TNO, het Nederlands Lucht en Ruimtevaart Centrum (NLR) en/of het Maritime Research Institute Netherlands (Marin) worden belegd.
Het zogenaamde «Collaborative Program of Work» van de NAVO besteedt ook aandacht aan het onderwerp « mens-machine» relatie. Uiteraard volgt het Ministerie van Defensie dit met veel belangstelling.
De leden van de PvdA-fractie hebben kennisgenomen van het concept van «betekenisvolle menselijke controle» dat volgens de AIV/CAVV cruciaal is in de discussie over autonome wapensystemen. Zij constateren dat het kabinet dit concept overneemt. De genoemde leden vragen zich echter af in hoeverre dit concept daadwerkelijk kan leiden tot een aanscherping van het debat: betekent «autonoom» immers niet simpelweg zonder betekenisvolle menselijke controle? En zou de discussie niet eerder moeten gaan over de menselijke controle waarop? Nu bestaan er immers ook reeds wapensystemen waarbij de doelenselectie al (deels) plaatsvindt op basis van niet-menselijke, geautomatiseerde wijze?
De leden van de PvdA-fractie constateren, mede op basis van een vergadering met experts en een gesprek met de redacteuren van het AIV/CAVV-rapport, dat een eenduidige internationale definitie van autonome wapensystemen nog altijd ontbreekt. Datzelfde geldt voor het concept van betekenisvolle menselijke controle. Zoals ook opgenomen in de kabinetsreactie heeft de adviescommissie de volgende werkdefinitie opgesteld: Een wapen dat zelfstandig doelen, die voldoen aan voorgeprogrammeerde kernmerken, selecteert en aanvalt, nadat mensen hebben besloten het wapen in te zetten en waarbij een mens niet meer kan ingrijpen om de aanval te stoppen». Waaruit blijkt dat, ofschoon mensen niet meer kunnen ingrijpen na inzet van het wapen, mensen wel een nadrukkelijke rol spelen bij het programmeren van de kenmerken van aan te vallen doelen en bij de beslissing over de inzet van het wapen. Mensen bevinden zich hiermee in de zogenoemde wider loop van de besluitvorming. De adviescommissie stelt tevens dat als de inzet van een autonoom wapensysteem volgens het hiervoor beschreven proces verloopt, er sprake is van betekenisvolle menselijke controle met de opmerking dat dit concept internationaal steeds meer draagvlak krijgt als onderscheidend criterium tussen aanvaardbare en onaanvaardbare (inzet van) autonome wapensystemen. Het kabinet ondersteunt de voorgestelde definitie van de AIV/CAVV van een autonoom wapensysteem met inbegrip van het concept van betekenisvolle menselijke controle. In hoeverre gaat het kabinet zich in internationaal verband inzetten voor het formuleren van een internationaal geaccepteerde definitie zoals hierboven omschreven? In hoeverre verschilt deze definitie van een autonoom wapensysteem van de definitie die andere landen hanteren? Zit daarbij nog verschil tussen de gehanteerde definitie die onze Europese partners hanteren en de VS?
De AIV/CAVV halen in hun advies als het gaat om betekenisvolle menselijke controle vaak het concept van the wider loop aan. Daarmee wordt een extra categorie gecreëerd die extra ruimte creëert tussen de drie categorieën die doorgaans worden gehanteerd (in the loop, on the loop en out of the loop). Ziet het kabinet, met de gehoorde experts, hierin geen risico dat voor een (te) ruime definitie wordt gekozen? Is menselijke controle in the wider loop werkelijk voldoende, of is een directere invloed van de mens noodzakelijk om onwenselijke situaties te voorkomen? Graag zien de leden van de PvdA-fractie een reflectie van de Ministers hierop.
In bovenstaande vragen wordt gewezen op drie aspecten die nauw met elkaar samenhangen: de gehanteerde werkdefinitie van autonome wapensystemen, betekenisvolle menselijke controle en de «wider loop».
De in de vragen reeds aangehaalde werkdefinitie is voor het kabinet belangrijk om een transparante en eenduidige discussie over (volledig) autonome wapensystemen te kunnen voeren. Daarom streeft het kabinet ook naar een zo spoedig mogelijke internationale overeenstemming over een definitie.
Het gebruik van het begrip «werkdefinitie» geeft al aan dat het kabinet zich realiseert dat dit mogelijk niet de definitieve versie is. Het Internationale Comité van het Rode Kruis gebruikt bijvoorbeeld een vergelijkbare definitie. Ofschoon veel landen nog geen steun hebben uitgesproken voor een bepaalde definitie van autonome wapensystemen, blijkt uit de discussie in CCW-verband van de afgelopen jaren dat nagenoeg alle landen van mening zijn dat het daarbij gaat om autonomie in de kritische fase van het targeting-proces waarin doelen worden geselecteerd en aangevallen. Ook geven nagenoeg alle landen aan dat het van groot belang is dat autonome wapensystemen onder betekenisvolle menselijke controle staan – sommige landen gebruiken hiervoor overigens andere begrippen – en dat de inzet van dergelijke wapens te allen tijde in overeenstemming is met het internationaal recht.
Het kabinet is van mening dat het concept van betekenisvolle menselijke controle in een Group of Governmental Experts (GGE) met een discussiemandaat nader moet worden uitgewerkt. Zoals gesteld bestaat over het begrip zelf nog geen overeenstemming, maar er bestaat wel een breed gedeelde overtuiging dat het ultimo de mens is die over vraagstukken van leven en dood besluit en niet een machine.
De vraag daarbij is echter hoe borg je betekenisvolle menselijke controle bij de inzet van wapensystemen die autonome functies bezitten in de kritische fase van het targeting-proces?
De AIV/CAVV gebruiken daarvoor het begrip de «wider loop» van de besluitvorming om aan te geven dat mensen een cruciale rol moeten blijven vervullen in het bredere targeting proces. Daarbij hanteren de adviesraden het NAVO targeting-proces als uitgangspunt. Dit bestaat uit 6 fases (zie bijlage II van het AIV/CAVV-advies over het targeting-proces in relatie tot het humanitair oorlogsrecht). De inzet van het autonome wapen geschiedt volgens de definitie van de AIV/CAVV aan het eind van fase 5, nadat mensen in de eerdere fases besluiten hebben genomen over het mandaat, «Rules of Engagement» (ROE), doelselectie, wapenselectie en uitvoeringsplanning inclusief een beoordeling van mogelijke nevenschade en te nemen voorzorgsmaatregelen. Het autonome wapensysteem is bovendien geprogrammeerd om binnen vooraf bepaalde voorwaarden en kaders specifieke acties uit te voeren. Na inzet van het wapen volgt in fase 6 van het targeting-proces een menselijke beoordeling van de effecten hiervan. De beoordeling van mogelijke nevenschade (proportionaliteit) en verantwoording volgens de regels van het humanitair oorlogsrecht spelen hierbij een sleutelrol. Ook het begrip «wider loop» en de invulling daarvan moet onderwerp van internationale discussie in de in te stellen GGE van de CCW zijn.
Terecht wordt in de vragen opgemerkt dat er nu ook al wapens bestaan die aan de door het kabinet gesteunde werkdefinitie van een autonoom wapen voldoen. Dat bestaande wapens onder de werkdefinitie vallen, betreft een bewuste keuze. Door te kijken hoe menselijke controle bij de inzet van huidige wapensystemen is ingericht, ontstaat een beter begrip ten aanzien van de eisen die aan menselijke controle worden gesteld bij de inzet en ontwikkeling van toekomstige wapensystemen.
In de inleiding van de brief van de Ministers staat dat het kabinet de zienswijze van de AIV en CAVV onderschrijft dat betekenisvolle menselijke controle noodzakelijk is bij de inzet van autonome wapensystemen. De leden van de SP-fractie delen de opvatting dat betekenisvolle menselijke controle noodzakelijk is, maar zij hebben grote zorgen over de gebruikte definitie. Is het juist dat volgens de opvatting van de Ministers geen controle meer over autonome wapensystemen hoeft te zijn wanneer eenmaal tot inzet wordt overgegaan? Klopt het dat menselijke controle zich kan beperken tot voorgeprogrammeerde kenmerken van doelen waarna het proces van selecteren en uitschakelen autonoom kan plaatsvinden? Anders geformuleerd, is het juist dat als een mens invloed heeft op de programmering, de doelselectie en wanneer het wapen geactiveerd wordt, er sprake is van betekenisvolle menselijke controle? Zo nee, wat is dan de precieze opvatting?
Het kabinet is van mening dat het targeting proces van een autonoom wapensysteem te allen tijde onder betekenisvolle menselijke controle dient te staan. Dit betekent, dat wanneer er voldoende menselijke controle bestaat in de fasen vóór en na de kritische fase (doelselectie en aanvallen), en inzet van het wapen in overeenstemming is met het internationaal recht, deze kritische fase in principe autonoom kan zijn.
Mensen hebben in een dergelijk geval immers de kenmerken van de aan te vallen doelen voorgeprogrammeerd, na afwegingen besloten het wapen in te zetten en blijven betrokken bij de evaluatie van de inzet van het wapen.
Hierbij merkt het kabinet wel op dat met de huidige stand van de techniek het aantal scenario’s waarin een dergelijk wapen conform de vereisten van het internationaal recht kan worden ingezet, zeer beperkt is.
Kan, zo vragen de leden van de SP-fractie, gesteld worden dat de opvatting van het kabinet ruimte laat om de beslissing om te doden aan een machine over te laten? Achten de Ministers dit een wenselijke situatie? Is het niet waarschijnlijk dat tijdens een aanval met een wapen dat voor een langere tijd in de lucht kan zijn de kans aanwezig is dat veranderingen optreden die van invloed zijn op het resultaat van de missie en het daarom wenselijk en noodzakelijk kan zijn om een missie af te breken? Is er in dergelijke gevallen geen sprake van het ontbreken van betekenisvolle menselijke controle? Kunnen de Ministers aangeven waar de grens ligt tussen betekenisvolle menselijke controle en de afwezigheid hiervan bij de inzet van autonome wapens, eventueel aan de hand van een voorbeeld?
Nee, de opvatting van het kabinet laat geen ruimte om de beslissing om te doden volledig aan een machine over te laten: autonome wapensystemen dienen altijd onder betekenisvolle menselijke controle staan. Daarbij besluit de mens in de «wider loop» van het targeting-proces vooraf over de inzet van het wapen en legt daarover achteraf verantwoording af. Net als bij alle andere wapens is de beoordeling van de inzet van een autonoom wapen afhankelijk van de context. Als de commandant van een dergelijk wapen tijdens het targeting-proces oordeelt dat het wapen niet geschikt is voor een specifieke situatie, bijvoorbeeld omdat er veranderingen kunnen optreden in omstandigheden die van invloed zijn op (het resultaat van) de missie, zet hij/zij dat wapen niet in. Een exacte grens is hiervoor niet te geven, elke situatie is verschillend.
De leden van de SP-fractie vragen de Ministers of zij het eens zijn met NGO’s en wetenschappers die stellen dat het cruciaal is dat er te allen tijde menselijke controle is op het moment van selectie en aanval? Zo nee, waarom niet?
Nee, er bestaan nu al wapens die zelf doelen kunnen selecteren en aanvallen. Cruciaal daarbij is dat bij de inzet van dergelijke wapens vooraf een zorgvuldige menselijke afweging wordt gemaakt en dat daarover achteraf ook door de commandant van het wapensysteem verantwoording kan worden afgelegd.
Delen de Ministers de vrees van de leden van de SP-fractie dat autonome wapensystemen de drempel voor de inzet van geweld verder zullen verlagen, aangezien het gevaar voor de eigen militairen wordt uitgesloten? Kunnen de Ministers autonome wapens die beschikken over voldoende betekenisvolle menselijke controle noemen die thans in ontwikkeling of reeds op de markt zijn?
De ontwikkeling van nieuwe wapensystemen is van alle tijden. Relevant daarbij is of de nieuwe middelen en methoden van oorlogvoering volgens het internationaal recht zijn toegestaan. Er bestaan geen wapensystemen die zelf intrinsiek beschikken over betekenisvolle menselijke controle, zoals de vraag suggereert. Het gaat erom dat de inzet van (toekomstige) wapensystemen onder betekenisvolle menselijke controle plaatsvindt en dat is per definitie context-afhankelijk. Nederland beschikt over de Patriot grond-luchtraket en de Goalkeeper, die afhankelijk van het scenario, zeer autonoom kunnen opereren. Deze systemen staan onder toezicht van hun bedienaars.
De leden van de D66-fractie onderschrijven, net als het rapport en het kabinet, de noodzaak van betekenisvolle menselijke controle bij de inzet van autonome wapensystemen. De genoemde leden constateren dat het kabinet het voldoende vindt als mensen in de zogenaamde «wider loop» van de besluitvorming zitten. De leden hebben kennis genomen van de kritiek van organisatie PAX, die stelt dat deze definitie van menselijke controle te breed is geformuleerd omdat in snel veranderende oorlogssituaties voorgeprogrammeerde parameters en criteria snel achterhaald kunnen raken. Dit kan leiden tot onnodige risico’s voor de burgerbevolking en burgerdoelen. Wat is de reactie van het kabinet op deze kritiek?
Het uitgangspunt van het kabinet is dat alle wapensystemen, én de inzet daarvan, moeten voldoen aan de eisen die het internationaal recht daaraan stelt. Bij het targeting-proces maakt de commandant van het wapensysteem een afweging of de mogelijke inzet van het voorgeprogrammeerde wapen gegeven de specifieke context, verantwoord is. Een van de criteria die daarbij wordt meegewogen is of er voldoende waarborgen zijn om de risico’s voor de burgerbevolking ook in snel veranderende omstandigheden tot een minimum te beperken. Hieruit volgt ook dat – mede gezien de huidige stand van de techniek – het aantal scenario’s waarin een dergelijk wapen conform de vereisten van het internationaal recht kan worden ingezet, zeer beperkt is.
Wat betreft de wensbaarheid van autonome wapensystemen hebben de leden van de D66-fractie ook nog vragen. Het AIV/CAVV-rapport stelt dat autonome wapensystemen in de nabije toekomst niet in staat zullen zijn de eisen van onderscheid en proportionaliteit en het treffen van voorzorgmaatregelen zelf te beoordelen, wanneer zij worden ingezet. Tevens beschouwen verschillende mensenrechtenorganisatie deze brede definitie van betekenisvolle menselijk controle als onwenselijk (Human Rights Watch, 2016: «Killer Robots and the Concept of Meaningful Human Control»; PAX, 2016: «Killer robots: het kabinet ziet het probleem niet...» Daarom vragen de leden het kabinet waarom zij besluitvorming in de «wider loop» als voldoende waarborg voor verantwoordelijk inzet beschouwen? Waarom heeft het kabinet voor deze definitie gekozen terwijl de discussie omtrent de definitie van betekenisvolle menselijke controle binnen de The Convention of Certain Conventional Weapons (CCW) nog gaande is, waarmee de mogelijkheid bestaat internationaal een meer beperkte definitie gangbaar te maken? Graag ontvangen de genoemde leden een uitgebreide toelichting op dit dilemma en de gemaakte keuze van het kabinet.
Zie beantwoording 3. Antwoord van het kabinet.
De leden van de D66-fractie merken op dat bij de planning en voorbereiding van militaire operaties altijd het risico bestaat dat er gebruik wordt gemaakt van onvolledige en/of foutieve inlichtingen. Tevens constateren deze leden dat volgens de huidige gehanteerde definitie van betekenisvolle menselijke controle het mogelijk is dat wapensystemen na inzet niet meer onderhevig zijn aan direct menselijke ingrijpen. De genoemde leden willen graag weten of het kabinet van mening is dat er tijdens de inzet van autonome wapensystemen nog altijd de mogelijkheid moet zijn voor menselijk ingrijpen? Zo ja, is het kabinet dan ook van mening dat deze waarborg moet worden meegenomen in de artikel 36-procedure en de «rules of engagement» van autonome wapensystemen? Zo nee, waarom niet?
Nee, de door het kabinet gehanteerde definitie van een autonoom wapen onder betekenisvolle menselijke controle gaat ervan uit dat een mens niet meer kan ingrijpen na een specifieke wapeninzet. In de «wider loop» van het targeting-proces is de mens wel verantwoordelijk voor de inzet daarvan. Op basis van de artikel 36-procedure moet bij de ontwikkeling en verwerving van nieuwe middelen en methoden van oorlogvoering worden onderzocht of het gebruik daarvan, in bepaalde of alle omstandigheden volgens het internationaal recht is verboden. Bij wapensystemen met autonomie in de kritische fase van het targeting-proces moet dan speciaal worden gekeken of er bij de inzet daarvan in bepaalde omstandigheden in de «wider loop» nog sprake is van betekenisvolle menselijke controle.
De leden van de D66-fractie constateren dat het kabinet de aanbeveling van de adviesraden wat betreft het ontwerpen (aanbeveling 7) en testen van autonome wapensystemen (aanbeveling 8) ziet als ondersteuning van staand beleid. De genoemde leden vragen het kabinet toe te lichten wat het kabinet momenteel onderneemt wat betreft de mogelijke inzet van autonome wapensystemen door de Nederlandse krijgsmacht. Heeft het kabinet plannen om deel te nemen aan de ontwikkeling en/of het aanschaffen van autonome wapensystemen? Zal het kabinet in de ontwerp en testfase extra eisen stellen aan autonome wapensystemen, in vergelijking met conventionele wapensystemen? Zo ja, welke? Zo nee, waarom niet?
Zoals gesteld verwerpt het kabinet de ontwikkeling en de inzet van volledig autonome wapensystemen die niet onder menselijke controle staan. Het concept van betekenisvolle menselijke controle is een belangrijk uitgangspunt bij de ontwikkeling of verwerving van nieuwe wapensystemen.
Bij wapensystemen met autonomie in de kritische fase van het targeting-proces moet in de ontwerp en testfase extra zorgvuldig worden gekeken of bij de inzet ervan sprake is van betekenisvolle menselijke controle bij de afwegingen over aspecten als doelselectie, wapenselectie en uitvoeringsplanning inclusief een beoordeling van mogelijke nevenschade en te nemen voorzorgsmaatregelen.
De leden van de fractie van GroenLinks vragen of het kabinet erkent dat een grote mate van autonomie binnen de gehanteerde definitie valt, groter dan bijvoorbeeld wordt geadviseerd door het internationale Rode Kruis?
Het Internationale Comité van het Rode Kruis (ICRC) definieert in een position paper1 van 11 april 2016 autonome wapensystemen als: «Any weapon system with autonomy in its critical functions. That is, a weapon system that can select (i.e. search for or detect, identify, track, select) and attack (i.e. use force against, neutralize, damage or destroy) targets without human intervention.» Deze definitie is vergelijkbaar met de AIV/CAVV-werkdefinitie waarvoor het kabinet steun heeft uitgesproken: «Een wapen dat zelfstandig doelen, die voldoen aan voorgeprogrammeerde kenmerken, selecteert en aanvalt, nadat mensen hebben besloten het wapen in te zetten en waarbij een mens niet meer kan ingrijpen om de aanval te stoppen.»
Zowel het ICRC als het kabinet geven aan dat er te allen tijde menselijke controle dient te zijn bij de inzet van autonome wapensystemen, anders kan ook niet aan de eisen van het internationaal recht, en meer in het bijzonder het humanitair oorlogsrecht, worden voldaan.
De centrale vraag is waarop die (betekenisvolle) menselijke controle betrekking moet hebben. Het kabinet is van mening dat zolang betekenisvolle menselijke controle aanwezig is in het targeting proces als geheel (de «wider loop»), de inzet van het AWS niet verboden of problematisch is, mits de inzet overeenkomstig het humanitair oorlogsrecht is. Het ICRC doet geen expliciete uitspraak over het feit of menselijke controle ten principale vereist is tijdens de kritische beslissingen (doel selecteren/doel aanvallen) en geeft aan dat dit nog onderzocht moet worden2: «However, it remains unclear whether human control at the stages of the development and the deployment of an autonomous weapon system is sufficient to overcome minimal or no human control at the stage of the weapon system's operation – that is, when it independently selects and attacks targets.»
Het kabinet heeft begrip voor de kanttekening die het ICRC hier maakt. Het kabinet is dan ook van mening dat de mogelijke inzet van wapens met verregaande autonomie – zeker gezien de huidige stand van de techniek – aan beperkingen onderhevig is. De inzet van dergelijke wapens in situaties die onvoorspelbaar zijn, of snel veranderen brengt grote risico’s met zich mee, omdat moeilijk aan de voorwaarden van het humanitair oorlogsrecht kan worden voldaan.
Kan het kabinet zich voorstellen dat wapens worden ingezet die meerdere malen aanvallen zonder dat er betekenisvolle menselijke controle is? Zou het kabinet het wenselijk vinden als wapens volgens vooraf ingesteld targeting-proces een oorlog uitvechten en dat daarna de evaluatie volgt?
Nee, het kabinet kan zich niet voorstellen dat er wapens worden ingezet die niet onder betekenisvolle menselijke controle staan. Meerdere aanvallen door hetzelfde wapensysteem zijn in wezen niet anders dan meerdere aanvallen door meerdere wapensystemen. Bij elke aanval moet er sprake zijn van betekenisvolle menselijke controle. Het kabinet kan zich daarom evenmin voorstellen dat autonome wapensystemen een hele oorlog uitvechten.
De leden van de fractie van GroenLinks vragen of het kabinet afdoende rekening houdt met de mogelijkheid dat de ontwikkeling en inzet van autonome wapens in een stroomversnelling komt? Houdt het kabinet afdoende rekening met de mogelijkheid dat de mate van autonomie wordt vergroot? Heeft het kabinet kennis genomen van de mening van diverse deskundigen die deze ontwikkelingen signaleren?
Technologische ontwikkelingen zijn moeilijk te voorspellen. Zowel onderschattingen als overschattingen komen veelvuldig voor. Daarom heeft het kabinet een AIV/CAVV-advies gevraagd en blijft het de technologische ontwikkelingen m.b.t. autonome wapensystemen nauwkeurig volgen.
De leden van de fractie van GroenLinks zijn zeer bezorgd over de impliciete keuze van het kabinet om autonome wapens in de toekomst deel uit te laten maken van de Nederlandse krijgsmacht. Zij vragen het kabinet om voor de daadwerkelijke aanschaf hiervan eerst nog een principieel debat hierover te voeren met de Kamer.
Volgens het Defensie Materieel Proces (DMP) ontvangt de Kamer voor strategische materieelprojecten groter dan € 25 miljoen of voor politiek gevoelige projecten altijd een A-brief met de behoeftestelling. Zoals in de kabinetsreactie is toegezegd, zal bij de verwerving van wapensystemen met autonome functies voortaan expliciet in DMP-brieven worden vermeld dat dit middel door de Adviescommissie Internationaal Recht en Conventioneel Wapengebruik (AIRCW) van het Ministerie van Defensie is getoetst aan het internationaal recht. De AIRCW heeft tot taak de Minister van Defensie te adviseren of de ontwikkeling en verwerving van nieuwe middelen en methoden van oorlogvoering volgens het internationaal recht zijn toegestaan.
De leden van de SP-fractie vragen de Ministers nader in te gaan op de wapenreviews die in het kader van de Geneefse Conventies plaatsvinden. Deze leden juichen het toe dat Nederland hier wat autonome wapens betreft grote waarde aan hecht, maar is het niet juist dat veel andere landen nooit gebruik maken van dergelijke wapenreviews? Welk beeld hebben de Ministers hiervan? Zijn er mogelijkheden deze reviews te verbeteren en wordt daar op aangedrongen, eventueel door de reviews internationaal te maken? En is het juist dat inmiddels verboden wapens, zoals landmijnen en clusterbommen, eerder positief door dergelijke nationale reviews kwamen? Zo ja, hoe is dit mogelijk en wat zegt dit over de betrouwbaarheid van deze wapenreviews?
Alle landen die partij zijn bij het Eerste Aanvullende Protocol bij de Geneefse Conventies (174 verdragspartijen) zijn volgens artikel 36 daarvan verplicht om bij de bestudering, ontwikkeling, aanschaf of invoering van een nieuw wapen, een nieuw middel of een nieuwe methode van oorlogvoering vast te stellen of het gebruik daarvan, in bepaalde of in alle omstandigheden, door het Protocol of door enige andere regel van het ten aanzien van de betreffende verdragspartij toepasselijke volkenrecht is verboden.
Daarnaast zijn er ook landen, zoals de Verenigde Staten, die geen partij zijn bij voorgenoemd protocol, maar wel wapenreviews uitvoeren.
De Nederlandse regering heeft geen volledig beeld welke landen een dergelijke wapenreview uitvoeren en welk proces zij hiervoor hanteren. Het gebruik van een wapenreview is een nationale verantwoordelijkheid.
Om meer aandacht voor nationale wapenreviews te vragen en het gebruik ervan te stimuleren, pleit Nederland al drie jaar in CCW-verband voor meer openheid over de uitvoering van de nationale artikel-36 procedures. Tijdens de laatste CCW expertvergadering in april 2016 heeft Nederland overeenkomstig het AIV/CAVV-advies gepleit voor een «interpretative guide». Daarin kunnen «best practices» worden opgenomen over onder meer de rol van betekenisvolle menselijke controle in de artikel 36-procedure en bij de inzet van autonome wapens.
Het is juist dat de inmiddels verboden soorten landmijnen en clusterbommen eerder positief door de reviewmechanismen zijn gekomen. Een van de redenen daarvoor is dat deze wapens destijds nog niet verboden waren. Daarnaast is van belang dat de genoemde wapens later vooral zijn verboden als gevolg van veelvuldige inzet daarvan door bepaalde landen op een wijze die niet in overeenstemming werd geacht met het internationale recht. De review procedure toetst of een wapen als zodanig in overeenstemming met het recht kan worden ingezet. Dat sluit niet uit dat een goedgekeurd wapen ook op een wijze kan worden ingezet die niet in overeenstemming is met het recht. In de Nederlandse procedure kan om deze reden een goedkeuring «onder voorwaarden» worden verleend, waarbij de goedkeuring is gekoppeld aan specifieke inzetregels. Ook voor onvoorwaardelijk goedgekeurde wapens geldt echter dat de uiteindelijke inzet moet worden getoetst aan het juridisch kader dat onder de gegeven omstandigheden van toepassing is. Een eenvoudig vuurwapen, bijvoorbeeld, zal in de meeste gevallen worden goedgekeurd in de reviewprocedure maar dat ontslaat de gebruiker er niet van om de rechtsregels in acht te nemen bij het daadwerkelijk gebruik van het wapen. Tot slot kunnen wapens na verloop van tijd anders worden beschouwd op grond van morele, ethische of maatschappelijke overwegingen en om die redenen alsnog verboden worden verklaard. In dat geval wordt een dergelijk verbod uiteraard daarna in de reviewprocedure toegepast.
Hoe, zo vragen de leden van de SP-fractie, beoordelen de Ministers het gegeven dat andere wapens, zoals mijnen en biologische en chemische wapens, eerder al verboden werden vanwege onder andere het gebrek aan betekenisvolle menselijke controle?
Het klopt dat andere wapens, zoals anti-personeelsmijnen, biologische wapens en chemische wapens behoren tot verboden wapens. De reden om tot een verbod van deze wapens te komen en daarover bij verdrag afspraken te maken, is echter niet ingegeven door een gebrek aan (betekenisvolle) menselijke controle, maar vanwege de effecten van deze wapens, zoals het toebrengen van overbodig letsel of onnodig leed en/of het niet-onderscheidend karakter van deze wapens.
De leden van de SP-fractie vragen de Ministers ook in te gaan op de aansprakelijkheid bij de inzet van autonome wapens. Delen de Ministers de zorgen van NGO’s en juridische experts dat er problemen kunnen ontstaan met betrekking tot de aansprakelijkheid bij de inzet van autonome wapens in het geval het selecteren van de precieze doelen en het vuren niet direct door een mens wordt uitgevoerd? Hoe verhoudt de aansprakelijkheid van dergelijke aanvallen door autonome wapens zich tot de aansprakelijkheid zoals die nu geregeld is bij bijvoorbeeld de inzet van Amerikaanse drones in Jemen en Pakistan, waar, ondanks hoge dodentallen onder burgers, slachtoffers nauwelijks mogelijkheden hebben om hun recht te halen?
Het kabinet onderschrijft de conclusie uit het advies van de AIV/CAVV dat wanneer mensen bij de inzet van autonome wapensystemen betekenisvolle controle uitoefenen in de «wider loop» van besluitvorming er geen aansprakelijkheidsprobleem is (accountability gap). Het geldende rechtsregime is in dat geval voldoende om overtreders aansprakelijk te stellen. Dit betreft zowel de aansprakelijkheid van individuen als staatsaansprakelijkheid.
Aansprakelijkheid voor aanvallen uitgevoerd door autonome wapensystemen onder betekenisvolle menselijke controle verschilt niet van aansprakelijkheid voor de inzet van welk ander wapen dan ook. Dit betreft zowel de aansprakelijkheid van individuen, zoals commandanten, als staatsaansprakelijkheid.
De leden van de D66-fractie stellen vast dat het kabinet het huidige raamwerk van het humanitair oorlogsrecht en de universele rechten van de mensen geschikt acht om de inzet van autonome wapensystemen te toetsen. Evenzo stelt het kabinet dat de verantwoordelijkheid bij het de inzet van autonome wapensystemen door de bevelvoeringlijn verschuift naar de commandant die tot inzet van het wapensysteem besluit. De leden van de D66-fractie willen graag weten of het kabinet van mening is dat het huidige juridische raamwerk genoeg aanknopingspunten biedt in situaties die in de huidige praktijk nog niet spelen en waar het vraagstuk van verantwoordelijkheid diffuus is. Dat kan bijvoorbeeld het geval zijn wanneer er sprake is oorlogsmisdaden als gevolg van technische storingen of programmeerfouten. Is het kabinet van mening dat voor deze mogelijkheden extra juridische waarborgen moeten worden ingesteld? Zo nee, waarom niet? Zo ja, welke waarborgen dan en hoe wil het kabinet dat realiseren?
Het kabinet is van mening dat zolang er sprake is van betekenisvolle menselijke controle, het huidige internationaal recht volstaat en geen aanvullende of nieuwe regelgeving nodig is. Dit vergt dat nieuwe autonome wapensystemen uitgebreid worden getest in een realistische omgeving om zeker te stellen dat het wapen inderdaad te allen tijde onder betekenisvolle menselijke controle staat. Dit sluit volledig aan bij staand beleid van Defensie bij de verwerving van nieuwe wapensystemen.
De leden van de fractie van GroenLinks vragen of het kabinet inziet dat naarmate de autonomie groter wordt het moeilijker wordt om de aansprakelijke mensen aan te wijzen? Ziet het kabinet de mogelijkheid dat wapens doorvechten terwijl de verantwoordelijke mensen hier niet meer achter staan of niet meer verantwoordelijk kunnen worden gesteld?
Zolang sprake is van betekenisvolle menselijke controle in de «wider loop» van besluitvorming bij de inzet van autonome wapensystemen bestaat er geen aansprakelijkheidsprobleem (accountability gap). In een dergelijke situatie verandert er niets in de aansprakelijkheid van commandanten, ondergeschikten of politieke en civiele verantwoordelijken die besluiten nemen over de inzet van het wapensysteem (zie ook 18. Antwoord van het kabinet).
Het kabinet is van mening dat betekenisvolle menselijke controle noodzakelijk is bij de inzet van autonome wapensystemen en onderstreept nadrukkelijk het belang van het onderscheid tussen autonome wapens onder betekenisvolle menselijke controle en volledig autonome wapens. De mogelijke ontwikkeling en inzet van die laatste categorie wijst het kabinet op voorhand af. Dergelijke wapensystemen kunnen niet aan de vereisten van het internationaal recht voldoen.
De leden van de D66-fractie willen nog ingaan op het ethische dilemma van autonome wapensystemen. Het bevreemdt de genoemde leden dat de regering in de kabinetsreactie op het rapport van de AIV/CAVV zich niet expliciet uitspreekt over de ethische dimensie van het gebruik van autonome wapensystemen. Is het kabinet van mening dat het ethisch te rechtvaardigen is dat mensen worden gedood zonder directe tussenkomst van een ander mens? De genoemde leden ontvangen graag een uitgebreide toelichting in het antwoord op deze vraag.
Volgens de leden van de fractie van GroenLinks worden de ethische bezwaren onderbelicht. Ziet het kabinet het probleem dat het instellen van een targeting-proces het geweld dermate op afstand zet dat ethische overwegingen minder aandacht krijgen?
Het kabinet onderschrijft het belang van een maatschappelijk debat over de ethische aspecten van (de inzet van) autonome wapensystemen en de mate waarin die onder betekenisvolle menselijke controle staan. In de kabinetsreactie schrijft het kabinet dat het de conclusie van de AIV/CAVV-commissie deelt dat zolang betekenisvolle menselijke controle bestaat over de inzet van autonome wapens, de ethische vraagstukken niet problematisch zijn. Reden hiervoor is dat de mens, binnen het targeting proces, een afgewogen besluit neemt om het wapen in te zetten, waarbij het uitgangspunt is dat de inzet in overeenstemming is met het humanitair oorlogsrecht. De mens blijft ook aansprakelijk. Juist daarom dient bij inzet van een wapensysteem met een hoge mate van autonomie grote terughoudendheid te worden betracht.
«Niet problematisch» betekent echter niet «altijd goed». Een maatschappelijke discussie over de ethische aspecten van autonome wapensystemen is daarmee dus zeker wenselijk. In aanvulling daarop is het kabinet van mening dat de ethische discussie over toenemende autonomie zich niet moet beperken tot autonome wapens, maar juist veel breder gevoerd zou moeten worden. De toename van autonomie van civiele systemen zal immers ook grote consequenties hebben. Naast zelfrijdende auto’s, valt hierbij ook te denken aan autonome systemen in de gezondheidszorg en in de bancaire sector.
De leden van de SP-fractie vragen de Ministers om nader toe te lichten waarom er geen rem op de huidige ontwikkeling naar steeds verdergaande autonomie in wapensystemen gezet hoeft te worden? Wordt zo niet bewust het risico genomen dat over enkele jaren de technologie reeds zo ver ontwikkeld is dat zij mogelijk niet meer in overeenstemming is met vereisten van de artikel 36-procedures, maar dan moeilijk of niet meer gestopt kan worden? De leden van de SP-fractie hebben begrip voor de NGO’s, wetenschappers en anderen die oproepen tot een verbod op de productie en het gebruik van volledig autonome wapens? Zijn de Ministers bereid hun standpunt in deze te herzien en dergelijke oproepen alsnog te steunen?
Het kabinet acht volledig autonome wapens op voorhand onwenselijk. De leden van de fractie van GroenLinks vragen of het kabinet bereid is om stappen te nemen om de ontwikkeling van volledig autonome wapens te verbieden?
Zolang sprake is van betekenisvolle menselijke controle bij de ontwikkeling en inzet van autonome wapensystemen ziet het kabinet geen reden om beperkende maatregelen te nemen. Dergelijke maatregelen lijken op voorhand weinig effectief en zouden ongetwijfeld een negatief gevolg hebben voor veel belangrijke civiele ontwikkelingen, zoals genoemd in «21. Antwoord van het kabinet».
Gezien het belang dat het kabinet hecht aan betekenisvolle menselijke controle, zowel bij huidige als toekomstige autonome wapensystemen, zet het kabinet zich in om het concept van betekenisvolle menselijke controle verder uit te werken en te duiden.
Verder wijst het kabinet erop dat bij het tot stand brengen van het advies de AIV/CAVV-commissie informatie heeft ingewonnen bij experts, ook over een eventueel moratorium.
Het kabinet ziet op dit moment geen reden om zijn standpunt te herzien. Volledigheidshalve wijst het kabinet erop dat Nederland actief zal blijven deelnemen aan het internationale debat over autonome wapensystemen. Wanneer het internationale debat daar aanleiding toe geeft, zal het kabinet daarop tijdig reageren en zo nodig haar standpunt wijzigen.
De leden van de PvdA-fractie hebben kennis genomen van de opvatting van de AIV/CAVV en het kabinet dat een moratorium onhaalbaar en onwenselijk is en zien de argumenten die daarvoor zijn. Het kabinet acht het van belang dit vraagstuk te blijven volgen en gezien de snelle technologische ontwikkelingen dit advies conform de aanbeveling over vijf jaar opnieuw tegen het licht houden. Ontwikkelingen kunnen echter sneller gaan dan vooraf verwacht, hoe kan men voorkomen dat – mochten de ontwikkelingen in een stroomversnelling raken – vijf jaar te lang blijkt te zijn om de bruikbaarheid van dit advies opnieuw tegen het licht te houden om dit zoveel eerder te doen als nodig mocht blijken? Wat is onder andere hierbij de rol van Nederlandse R&D (afdelingen van) instituten, waaronder TNO, die zich bezig houden met technologische ontwikkelingen? Wat zijn de ontwikkelingen die binnen het European Defence Agency gaande zijn en die betrekking hebben op autonome wapensystemen?
Het kabinet is zich ervan bewust dat toekomstige ontwikkelingen, in het bijzonder technologische ontwikkelingen, lastig accuraat te voorspellen zijn. Om die reden houdt het kabinet het AIV/CAVV-advies over 5 jaar opnieuw tegen het licht. Voor de volledigheid wijst het kabinet erop dat bij het tot stand brengen van zijn advies de AIV/CAVV-commissie informatie heeft ingewonnen bij experts, ook over de verwachte technologische ontwikkelingen.
Daarnaast blijft het kabinet actief deelnemen aan het internationale debat over autonome wapensystemen. Mocht hieruit blijken dat de technologische ontwikkelingen daartoe aanleiding geven, zal het kabinet daarop tijdig reageren.
Ook de Nederlandse experts zijn aangesloten bij het internationale debat. Zo hebben tijdens de CCW expertvergadering van april 2016 experts van de Universiteit Leiden, TNO en de Vrije Universiteit Amsterdam presentaties gegeven.
In het eerdere antwoord over de SKIA van Defensie is gesteld dat het speerpunt mens-machine zal worden vertaald in concrete onderzoeksprojecten voor de kennisinstituten (zie 2. Antwoord van het kabinet). In opdracht van Defensie werkt TNO nu aan een onderzoeksprogramma over onbemande systemen. Daarbij wordt ook naar autonome aspecten gekeken, bijvoorbeeld op het gebied van navigatie, maar er wordt nadrukkelijk niet aan een autonoom wapensysteem gewerkt. Verder start TNO in 2017 voor Defensie een nieuw onderzoeksprogramma over zelfstandige taakuitvoering door onbemande systemen. Robotisering en kunstmatige intelligentie en de maatschappelijke vraagstukken die daarbij spelen, staan tevens in de belangstelling van de universiteiten. In de kabinetsreactie werd al verwezen naar het project «Military Human Enhancement: Design for Responsibility and Combat Systems» van de Technische Universiteit Delft. Bij het European Defence Agency loopt of dit moment geen programma dat betrekking heeft op autonome wapensystemen.
De leden van de PvdA-fractie hebben voorts begrepen dat in het kader van Verdrag inzake het verbod of de beperking van het gebruik van bepaalde conventionele wapens wel gesproken wordt over de (potentiële) ontwikkeling van autonome wapensystemen. Zij hebben goede kennis genomen van het feit dat Nederland in dit gremium een actieve rol vervuld. Kunnen de Ministers aangeven wat de kernvragen zijn die in dit forum besproken worden, welke positie Nederland hierin inneemt en welke resultaten Nederland hoopt te bereiken? In hoeverre zou een separate conventie over (een verbod op) autonome wapensystemen volgens het kabinet helpen om die resultaten beter of spoediger te bereiken? Op welke wijze is er op basis van artikel 36 (wapen reviews) van het Verdrag reeds ervaring opgedaan met het testen van zogenaamde «killer robots»?
Tijdens de CCW expertvergadering van april 2016 zijn «lethal autonomous weapon systems» (LAWS) in zeer brede context besproken, waaronder huidige ontwikkelingen op het gebied van autonomie, definitiekwesties, juridische en ethische kwesties alsmede zaken m.b.t. internationale vrede en veiligheid. De inhoudelijke kernvragen zijn (1) wat is precies de menselijke controle die moet blijven bestaan bij de inzet van autonome wapensystemen, (2) dient er een additioneel protocol te komen onder het CCW of voldoet het huidige recht en (3) dient er een moratorium op de ontwikkeling van volledig autonome wapensystemen te worden ingesteld.
Nederland is van mening dat er altijd betekenisvolle menselijke controle moet blijven bestaan binnen de «wider loop» van het targeting proces. Hierbij is het uitgangspunt dat een commandant altijd verantwoording moet kunnen blijven dragen voor de inzet van het autonome wapen en de inzet conform het humanitair oorlogsrecht is. Zolang sprake is van betekenisvolle menselijke controle, is het kabinet van mening dat het huidige internationaal recht volstaat en geen aanvullende of nieuwe regelgeving nodig is.
Waar precies de grenzen liggen van betekenisvolle menselijke controle ligt niet vast en is mede afhankelijk van de technologische ontwikkelingen. Daarom heeft het kabinet binnen CCW verband bepleit om een Governmental Group of Experts (GGE) in te stellen om het concept van betekenisvolle menselijke controle verder te onderzoeken. Tevens heeft Nederland gepleit om in deze GGE meer duiding te geven aan de artikel 36-procedure.
Het kabinet is van mening dat discussies met als uitgangspunt beperkende maatregelen op dit moment, mede gezien de vele onduidelijkheden en meningsverschillen in het internationale debat, een negatieve impact zouden hebben op de noodzakelijke internationale dialoog over betekenisvolle menselijke controle bij wapensystemen met toenemende autonomie.
Nederland verwerpt de ontwikkeling van volledig autonome wapensystemen. Met het testen van autonome wapensystemen, als bedoeld in de werkdefinitie van een autonoom wapensysteem die door het kabinet uit het rapport van de AIV/CAVV is overgenomen, heeft Nederland tot op heden geen ervaring, omdat Nederland dergelijke wapens niet bezit en daartoe thans ook geen voornemens heeft.
De leden van de PvdA-fractie horen graag van de Minister hoe wordt aangekeken tegen de recente publicatie van het Rode Kruis (ICRC) onder de titel «Views of the International Committee of the Red Cross on autonomous weapon systems» (https://www.icrc.org/en/document/views-icrc-autonomous-weapon-system). Hierin wordt een reflectie gegeven op de ontwikkelingen rondom autonome wapensystemen in het algemeen en in de laatste paragraaf drie benaderingen benoemd die de internationale gemeenschap zou kunnen kiezen: a) versterking van nationale mechanisme voor de toepassing van internationaal humanitair recht, b) scherpere definities van wapensystemen waarin grenzen worden gesteld aan wat juridisch en ethisch toelaatbaar is en c) parameters ontwikkelen voor menselijke controle en specifieke grenzen stellen aan de autonomie van wapensystemen. Graag zouden de leden van de PvdA-fractie ook hierop een reflectie van de Ministers zien.
Het kabinet deelt deze zienswijze van het Internationale Comité van het Rode Kruis (zie 12. Antwoord van het kabinet). Hierbij is het kabinet een voorstander van het ontwikkelen van een diepgaandere duiding van het concept betekenisvolle menselijke controle (optie c) en wil het kabinet daarbij parallel internationaal werken aan het versterken van nationale wapenreviews (optie a). Deze zienswijze heeft Nederland tijdens recente CCW expertvergadering in Geneve ook uitgedragen.
De leden van de D66-fractie hebben nog enkele vragen over een eventueel moratorium op autonome wapens De Speciaal Rapporteur van de VN Mensenrechtenraad heeft opgeroepen tot een (voorlopig) moratorium. Ook is er nog geen internationaal geaccepteerde definitie van betekenisvolle menselijk controle. De genoemde leden vragen het kabinet toe te lichten of het kabinet het eens is met de Rapporteur dat een dergelijk moratorium wenselijk is? Waarom spreekt het kabinet zich hier in de reactie op het rapport niet expliciet over uit? Het kabinet geeft aan de visie op dit onderwerp over vijf jaar opnieuw te evalueren. De genoemde leden vragen het kabinet toe te lichten aan de hand van welke criteria deze nieuwe evaluatie zal plaatsvinden? Mensenrechtenorganisaties stellen dat het kabinet de snelheid van de ontwikkelingen op het gebied van autonome wapensystemen onderschat. De leden van de fractie van D66 vragen het kabinet daarom of het bereid is deze evaluatie eerder plaats te laten vinden? Zo nee, waarom niet? Zo ja, op welke termijn?
Zoals aangegeven in de kabinetsreactie op het AIV/CAVV-advies, deelt het kabinet de mening van de AIV/CAVV-adviescommissie over de huidige onhaalbaarheid van een moratorium op volledig autonome wapensystemen. Het kabinet onderschrijft derhalve de argumenten die de AIV/CAVV-adviescommissie hiervoor aanvoert.
Anders gesteld, het kabinet acht het voor de komende 5 jaar niet wenselijk om een moratorium in te stellen, maar behoudt zich het recht voor deze positie te herzien mocht de internationale discussie en/of technologische ontwikkelingen hier aanleiding toe geven.
Zoals in de kabinetsreactie is gemeld, bepleit ook het Internationale Comité van het Rode Kruis (ICRC) op dit moment geen moratorium. In 2015 verwoordde het ICRC dit expliciet: «We first wish to recall that the ICRC is not at this time calling for a ban, nor a moratorium on autonomous weapon systems». In voorgenoemde kabinetsreactie stelde het kabinet ook dat het ICRC mede vanwege de onhaalbaarheid van een moratorium tot zijn oordeel was gekomen. Het Nederlandse Rode Kruis heeft het kabinet echter laten weten dat het ICRC geen uitspraken over de haalbaarheid heeft gedaan, maar landen oproept om de juridische en ethische vragen van autonomie in de kritische fase van wapensystemen nader te onderzoeken.
Tot slot zal het kabinet bij de evaluatie van zijn visie op dit onderwerp – over vijf jaar of eerder indien nodig – uiteraard alle (tegen die tijd) relevante invalshoeken meenemen.
In de ogen van de GroenLinks-fractie zou de haalbaarheid niet bepalend moeten zijn voor de wenselijkheid van een moratorium op autonome wapens. Het kabinet acht een moratorium niet haalbaar om diverse redenen, zoals het voorhanden zijn van de benodigde technologie en onderdelen voor civiele doeleinden. Is de regering het met de leden van de fractie van GroenLinks eens dat deze overwegingen ook spelen bij het verbod op chemische wapens?
Ofschoon in beide gevallen sprake is van technologie voor tweeërlei gebruik (dual-use technologie), zijn de onderwerpen «lethal autonomous weapon systems» (LAWS) en chemische wapens (CW) totaal verschillend. Ten eerste bestaan CW al decennia en betreft het relatief eenvoudige technologie, waarbij het met name gaat om goederen (apparatuur) en materialen (chemische stoffen). LAWS bestaan nog niet, hetgeen exportcontrole en verboden per definitie compliceert, en veel van de technologie is software, deze laatste categorie is veel lastiger effectief aan exportcontrole te onderwerpen. Ten tweede is CW technologie een redelijk ingekaderde technologie (raakt met name de farmaceutische en chemische industrie), terwijl toenemende autonomie in een veelvoud van bedrijfssectoren wordt toegepast, zoals auto-industrie, luchtvaart, gezondheidszorg, financiële wereld, etc. Anders gesteld, overal waar intelligente software een rol speelt.