Ingediend | 21 februari 2018 |
---|---|
Beantwoord | 4 april 2018 (na 42 dagen) |
Indiener | Kees van der Staaij (SGP) |
Beantwoord door | Ank Bijleveld (minister defensie) (CDA), Sigrid Kaag (minister zonder portefeuille buitenlandse zaken) (D66) |
Onderwerpen | defensie internationaal |
Bron vraag | https://zoek.officielebekendmakingen.nl/kv-tk-2018Z03114.html |
Bron antwoord | https://zoek.officielebekendmakingen.nl/ah-tk-20172018-1645.html |
Ja.
Volgens het kabinet moeten mensen altijd verantwoordelijk en aansprakelijk blijven voor de inzet van wapensystemen. Dit uitgangspunt verandert niet als er (in toenemende mate) autonome functies aan wapensystemen worden toegevoegd. In lijn hiermee heeft het kabinet in zijn reactie op het advies «Autonome wapensystemen: de noodzaak van betekenisvolle menselijke controle» van de Adviesraad Internationale Vraagstukken (AIV) en de Commissie van Advies inzake Volkenrechtelijke Vraagstukken (CAVV)2, de aanbeveling overgenomen dat betekenisvolle menselijke controle altijd noodzakelijk is bij de inzet van autonome wapensystemen.
Het kabinet verwerpt dan ook op voorhand de ontwikkeling en inzet van volledig autonome wapensystemen, waarbij geen sprake meer is van betekenisvolle menselijke controle. Volgens het kabinet vallen de zogenoemde «killer robots» in deze laatste categorie.
De ontwikkeling en inzet van alle wapensystemen moeten voldoen aan het internationaal recht, in het bijzonder de rechten van de mens en het humanitair oorlogsrecht, waaronder artikel 36 van het Eerste Aanvullende Protocol bij de Geneefse Verdragen, dat landen verplicht om nieuwe wapens te toetsen aan het internationaalrechtelijk kader.
Het kabinet verwacht op de korte termijn – als ze al ooit ontwikkeld worden – geen inzet van volledig autonome wapensystemen waarbij de kunstmatige intelligentie zich «zelfstandig» onttrekt aan betekenisvolle menselijke controle. Het kabinet is zich er echter van bewust dat toekomstige ontwikkelingen, in het bijzonder technologische ontwikkelingen en de toepassing daarvan, lastig accuraat te voorspellen zijn. Om die reden heeft het kabinet reeds toegezegd het AIV/CAVV-advies 5 jaar na verschijning, in 2020, opnieuw tegen het licht te zullen houden. Tevens volgt het kabinet de (technologische) ontwikkelingen op dit terrein op de voet zodat het, indien de ontwikkelingen daar aanleiding toe geven, hier meteen op kan reageren.
Ofschoon het kabinet in ieder geval op korte termijn geen volledig autonome wapensystemen verwacht die niet onder betekenisvolle menselijke controle staan, neemt de mate van autonomie in wapensystemen wel verder toe. Hierop zal ook de Nederlandse krijgsmacht moeten zijn voorbereid. Er wordt hierover dan ook kennis opgebouwd en er vindt wetenschappelijk onderzoek naar juridische, ethische en veiligheidsaspecten van toenemende autonome functies in wapensystemen plaats.
De toename van autonomie is een brede technologische ontwikkeling die allereerst volop plaatsvindt in de civiele sector, maar logischerwijs ook in de defensie-industrie. Autonome wapensystemen, die onder betekenisvolle menselijke controle staan, kunnen immers ook belangrijke militaire voordelen hebben. Zo reageren computers vaak sneller en preciezer dan mensen, waardoor risico’s voor eigen eenheden en de burgerbevolking kunnen afnemen. Ook kunnen dergelijke systemen opereren in een omgeving die voor mensen moeilijk bereikbaar en gevaarlijk is. Dergelijke toename van autonomie is dus essentieel voor een hoogwaardige Nederlandse krijgsmacht.
Voor zover bij het kabinet bekend, is de Nederlands defensie-industrie echter niet betrokken bij de ontwikkeling van volledig autonome wapensystemen die niet onder betekenisvolle menselijke controle staan.
Zoals aangegeven in eerdergenoemde kabinetsreactie is het kabinet tegen de ontwikkeling en inzet van volledig autonome wapensystemen, waarbij geen sprake meer is van betekenisvolle menselijke controle. Het is daarom niet wenselijk dat Nederland of Nederlandse bondgenoten dergelijke systemen zouden ontwikkelen.
Zie antwoord vraag 6.
De vraag hoe mensen in controle kunnen blijven en de verantwoordelijkheid kunnen blijven dragen voor systemen die beschikken over een zelflerend vermogen, of meer in het algemeen kunstmatige intelligentie, is een belangrijk actueel maatschappelijk vraagstuk. Aangezien de ontwikkeling in kunstmatige intelligentie allereerst een civiele ontwikkeling is, speelt de vraag niet alleen in het militaire domein, maar ook in tal van civiele applicaties, zoals vervoer, telecommunicatie, internet, medische zorg, financiële handel, enz. Met betrekking tot het militaire domein is het huidige internationale recht, in het bijzonder het humanitair oorlogsrecht, een waarborg. Zo verplicht artikel 36 van het Eerste Aanvullende Protocol bij de Geneefse Verdragen landen om de ontwikkeling en verwerving van nieuwe middelen en methoden van oorlogvoering te toetsen aan het internationaalrechtelijk kader. In Nederland is hiermee de Adviescommissie Internationaal Recht en Conventioneel Wapengebruik (AIRCW) van het Ministerie van Defensie belast. De AIRCW beoordeelt in voorkomend geval ook of de inzet van wapensystemen met autonome functies onder betekenisvolle menselijke controle kan worden uitgevoerd. In het internationale debat over autonome wapensystemen onderstreept Nederland het belang van een goede uitvoering van artikel 36 en bevordert het de onderlinge uitwisseling van ervaringen hieromtrent (best practices).
Het kabinet is van mening dat voor elk wapen geldt, dat het altijd de mens moet zijn die bepaalt of een wapen wordt ingezet conform het humanitaire oorlogsrecht en niet het wapen zelf. Zoals gesteld verwerpt het kabinet de inzet van volledig autonome wapensystemen of killer robots die niet onder betekenisvolle menselijke controle staan. Bij autonome wapensystemen die wel onder menselijke controle staan, geldt dat de verantwoordelijke bediener daarvan per geval bepaalt of de inzet daarvan volgens het internationaal oorlogsrecht kan geschieden, daarbij onder meer rekening houdend met Rules of Engagement en de technische (on)mogelijkheden van het systeem. Gezien de huidige stand van de techniek is het kabinet van mening dat er op dit moment weinig situaties bestaan waarin autonome wapensystemen rechtmatig kunnen worden ingezet.
Zie antwoord vraag 9.
Zoals in mei 2016 aangegeven in de beantwoording3 van schriftelijke Kamervragen is het kabinet van mening, dat wanneer mensen bij de inzet van autonome wapensystemen betekenisvolle controle uitoefenen er geen aansprakelijkheidsprobleem is. Het geldende rechtsregime is in dat geval voldoende om overtreders aansprakelijk te stellen. Aansprakelijkheid voor aanvallen uitgevoerd door autonome wapensystemen onder betekenisvolle menselijke controle verschilt niet van aansprakelijkheid voor de inzet van welk ander wapen dan ook.
Nederland neemt actief deel aan het internationale debat over autonome wapensystemen dat plaatsvindt binnen de Convention on Certain Conventional Weapons (CCW) van de VN. Ook China en Rusland nemen hieraan deel. In beginsel is Nederland bereid om met iedereen de dialoog aan te gaan en waar mogelijk samen te werken, maar wanneer posities ver uit elkaar liggen is concrete samenwerking vaak niet mogelijk. Daar waar samenwerking wel mogelijk of vanzelfsprekend is, neemt Nederland het initiatief. Zo heeft Nederland samen met Zwitserland voor de eerste vergadering van de Governmental Group of Experts (GGE) in november 2017 een non-paper geschreven over wapenreviews in het kader van het hierboven genoemde artikel 36. Daarnaast heeft Nederland als één van de weinige landen met een uitgebreid kabinetsstandpunt over dit onderwerp de samenvatting hiervan ook als non-paper ingediend. Beide papers zijn door de CCW op hun webpagina geplaatst en zijn positief ontvangen door de aanwezige lidstaten en experts.
Zie antwoord vraag 12.