Aan de Voorzitter van de Tweede Kamer der Staten-Generaal
Den Haag, 4 maart 2016
Hierbij bieden wij u de kabinetsreactie aan op het advies «Autonome wapensystemen: de noodzaak van betekenisvolle menselijke controle» van de Adviesraad Internationale Vraagstukken (AIV) en de Commissie van Advies inzake Volkenrechtelijke Vraagstukken (CAVV).1
Zoals toegezegd aan de Tweede Kamer, bevat deze brief tevens een reactie op het rapport «Mind the Gap: The Lack of Accountability for Killer Robots» van Human Rights Watch en International Human Rights Clinic.2
De Minister van Buitenlandse Zaken, A.G. Koenders
De Minister van Defensie, J.A. Hennis-Plasschaert
Inleiding
Het kabinet dankt de gezamenlijke commissie van de Adviesraad Internationale Vraagstukken (AIV) en de Commissie van Advies inzake Volkenrechtelijke Vraagstukken (CAVV) (hierna: de adviescommissie) voor hun tijdige en gedegen advies over de juridische, ethische en beleidsmatige vragen die aan de orde zijn bij de toename van autonome functies in wapensystemen. Het kabinet beschouwt de conclusies en aanbevelingen als ondersteuning van, en aanvulling op het huidige beleid. De hoofdconclusie van het advies luidt dat betekenisvolle menselijke controle noodzakelijk is bij de inzet van autonome wapensystemen. Het kabinet onderschrijft deze zienswijze. Hieronder volgt een gedetailleerde toelichting op het advies.
Definitie: autonomie en betekenisvolle menselijke controle
Het uitgangspunt van het kabinet is dat alle wapensystemen, én de inzet daarvan in een situatie van gewapend conflict, moeten voldoen aan de eisen die het internationaal recht daaraan stelt. Zoals het kabinet in zijn brief van 26 november 2013 stelt, geldt dit uiteraard ook voor autonome wapensystemen.3 In het internationale debat bestaat nog geen algemeen aanvaarde definitie van een autonoom wapensysteem. De adviescommissie heeft de volgende werkdefinitie opgesteld:
Een wapen dat zelfstandig doelen, die voldoen aan voorgeprogrammeerde kernmerken, selecteert en aanvalt, nadat mensen hebben besloten het wapen in te zetten en waarbij een mens niet meer kan ingrijpen om de aanval te stoppen.4
Uit bovenstaande definitie blijkt dat, ofschoon mensen niet meer kunnen ingrijpen na inzet van het wapen, mensen wel een nadrukkelijke rol spelen bij het programmeren van de kenmerken van aan te vallen doelen en bij de beslissing over de inzet van het wapen. Mensen bevinden zich hiermee in de zogenoemde wider loop van de besluitvorming. Hiermee wordt bedoeld dat mensen een cruciale rol blijven vervullen in het bredere targeting proces. Een autonoom wapen, zoals hierboven gedefinieerd, wordt derhalve pas ingezet na menselijke afwegingen over aspecten als doelselectie, wapenselectie en uitvoeringsplanning inclusief een beoordeling van mogelijke nevenschade. Het autonome wapensysteem is bovendien geprogrammeerd om binnen vooraf bepaalde voorwaarden en kaders specifieke acties uit te voeren. Na inzet volgt wederom een menselijke beoordeling van de effecten hiervan. De beoordeling van mogelijke nevenschade (proportionaliteit) en verantwoording volgens de regels van het humanitair oorlogsrecht spelen hierbij een sleutelrol.
Betekenisvolle menselijke controle
De adviescommissie stelt dat als de inzet van een autonoom wapensysteem volgens het hiervoor beschreven proces verloopt, er sprake is van betekenisvolle menselijke controle. Mensen maken dan immers geïnformeerde, bewuste keuzes over het gebruik van wapens, op basis van adequate informatie over het doel, het wapen en de context waarin de inzet van het wapen plaatsvindt.
Tevens wijst zij erop dat dit concept internationaal steeds meer draagvlak krijgt als onderscheidend criterium tussen aanvaardbare en onaanvaardbare (inzet van) autonome wapensystemen.
De adviescommissie ziet op voorhand geen noodzaak om voor het concept van betekenisvolle menselijke controle aanvullende of nieuwe regelgeving op te stellen. Het concept kan worden gezien als een standaard die afleidbaar is uit bestaande regelgeving en gebruiken zoals het targeting proces.
Het kabinet ondersteunt de hierboven voorgestelde definitie van een autonoom wapensysteem met inbegrip van het concept van betekenisvolle menselijke controle en onderschrijft dat hiervoor geen nieuwe regelgeving nodig is.
Wel adviseert de adviescommissie om in multilateraal verband in te zetten op de ontwikkeling van een internationaal aanvaarde definitie (aanbeveling 4):
De AIV/CAVV is van mening dat tijdens de komende CCW-bijeenkomsten zo snel als mogelijk overeenstemming moet worden bereikt over de definitie van een autonoom wapen en het concept van betekenisvolle menselijke controle. In NAVO-verband moet afstemming worden nagestreefd. De AIV/CAVV acht het van belang dat bij deze discussies de interpretatie van de (besluitvormings)loop betrekking heeft op het gehele targeting proces waarbij de mens een beslissende rol vervult en niet op de loop «in enge zin» (de kritische processen – doelselectie en aanval op het doel – die het autonome wapen zelf uitvoert).
Definitievorming (conform aanbeveling 4) acht ook het kabinet nodig. Hiertoe heeft Nederland tijdens de jaarlijkse bijeenkomst van de Convention on Certain Conventional Weapons (hierna: CCW) op 12 november jl. gepleit voor de instelling van een Governmental Group of Experts (GGE). De GGE zou onder meer het concept van betekenisvolle menselijke controle verder moeten onderzoeken. De instelling hiervan kon in november echter niet op voldoende steun rekenen, omdat een aantal landen het onderwerp hiervoor nog niet rijp genoeg acht Wel heeft de CCW besloten om in april 2016 voor het derde opeenvolgende jaar een Expert Meeting over autonome wapensystemen te houden. Nederland zal hier wederom aan deelnemen en zich actief inzetten voor verdere verduidelijking en consensusvorming omtrent de definitiekwestie en de invulling van het concept betekenisvolle menselijke controle. Met het oog op het belang dat het kabinet hecht aan het concept van betekenisvolle menselijke controle, financieren de Ministeries van Buitenlandse Zaken en van Defensie een promotieonderzoek over dit onderwerp. Dit onderzoek is begin 2015 gestart en wordt begeleid door de Vrije Universiteit te Amsterdam.
Toekomstige inzet van autonome wapensystemen onder menselijke controle
Algemeen
De adviescommissie wijst erop dat autonome wapensystemen belangrijke militaire voordelen kunnen hebben, mits zij beschikken over betekenisvolle menselijke controle binnen de wider loop van besluitvorming. Zo reageren computers vaak sneller en preciezer dan mensen, waardoor risico’s voor eigen eenheden en de burgerbevolking kunnen afnemen. Ook kunnen dergelijke systemen opereren in een omgeving die voor mensen moeilijk bereikbaar en gevaarlijk zijn. Het is dan ook de verwachting dat dergelijke wapensystemen de komende decennia wereldwijd (verder) worden ontwikkeld en ingezet voor offensieve en defensieve taken.
Hierbij verwacht de adviescommissie overigens niet dat autonome wapensystemen de rol van de mens op het gevechtsterrein substantieel zullen overnemen. De aard van moderne conflicten, die zich vaak in gebieden met veel burgers afspelen, compliceert volgens haar de inzet van deze wapensystemen. Autonome wapensystemen zullen waarschijnlijk naast militairen en bestaande wapensystemen en andere militaire en civiele technologie voor specifieke taken worden ingezet (complementair). Aanbeveling 1 van het advies gaat hier op in:
In een blijvend technologisch hoogwaardige Nederlandse krijgsmacht is naar de mening van de AIV/CAVV ook een (toekomstige) rol weggelegd voor autonome wapensystemen. Bij inzet zal evenwel altijd sprake moeten zijn van betekenisvolle menselijke controle zoals beschreven in dit advies.
Het kabinet deelt deze zienswijze. Voorts moet de Nederlandse krijgsmacht er terdege rekening mee houden dat mogelijke (niet-statelijke) tegenstanders autonome wapensystemen tegen hen zal inzetten. De krijgsmacht zal zich daartegen adequaat moeten kunnen verweren. In algemene zin geldt dan ook dat de krijgsmacht een goed beeld moet hebben van wat er op het gebied van autonome wapensystemen wordt ontwikkeld en aangeboden. In de actualisering van de Strategische Kennis en Innovatieagenda (SKIA) van Defensie zal vanzelfsprekend aandacht worden besteed aan autonome systemen en de relatie mens-machine.
Ontwerpfase
De adviescommissie bepleit dat reeds in het ontwerp van een autonoom wapensysteem voldoende rekening wordt gehouden met het «samenspel» tussen mens en machine (aanbeveling 7). Het ontwerp moet dus zo zijn uitgevoerd dat de relevante informatie, die de mens nodig heeft om betekenisvolle menselijke controle over de inzet van het wapensysteem uit te kunnen oefenen, tijdig en overzichtelijk wordt aangeboden.
De AIV/CAVV adviseert de regering om bij eventuele toekomstige aanschaf van autonome wapens toe te zien op toepassing van het concept Moral Responsible Engineering in de ontwerpfase, gelet op het belang van de toewijzing van verantwoordelijkheid en aansprakelijkheid.
Het kabinet beschouwt deze aanbeveling als bevestiging van staand beleid. In bovengenoemde actualisering van de SKIA wordt de relatie mens-machine als een van de speerpunten aangewezen. Samen met zijn kennispartners doet het kabinet hier onderzoek naar, onder andere door een eerder toegekende financiële bijdrage aan het onderzoeksprogramma van NWO over maatschappelijk verantwoord ondernemen (Responsible Innovation). Hieronder valt tevens het project Military Human Enhancement: Design for Responsibility and Combat Systems onder, dat door de Technische Universiteit Delft is uitgevoerd.5 Ook zij concluderen dat al bij het ontwerp van wapensystemen rekening moet worden gehouden met de toewijzing van verantwoordelijkheid en aansprakelijkheid.
Testfase
Daaraan gekoppeld wijst de adviescommissie ook op het belang van het uitgebreid testen van autonome wapensystemen in een realistische omgeving, om zeker te stellen dat het wapen te allen tijde onder betekenisvolle menselijke controle staat (aanbeveling 8).
De AIV/CAVV beveelt de regering aan bij aanschaf van autonome wapens uitvoerige testen in een realistische omgeving te doen plaatsvinden.
Dit is staand beleid. Bij de verwerving van wapensystemen wordt hier, mede gezien de toenemende complexiteit, reeds veel aandacht aan besteed, zowel door defensiepersoneel als de betrokken civiele partijen (bedrijven).
Internationaalrechtelijke aspecten
De adviescommissie concludeert dat er geen reden is om aan te nemen dat autonome wapensystemen onder betekenisvolle menselijke controle per definitie tot één van de categorieën wapens behoren die onder het humanitair oorlogsrecht verboden zijn. Zij wijst er terecht op dat ook die systemen onder menselijke controle staan waarmee de eindverantwoordelijkheid voor hun inzet bij de mens ligt.
Artikel 36
Bij de toetsing of autonome wapensystemen onder betekenisvolle menselijke controle staan, is volgens de adviescommissie een belangrijke rol weggelegd voor de zgn. artikel 36-procedure. Die procedure is gebaseerd op artikel 36 van het Eerste Aanvullende Protocol bij de Geneefse Verdragen, dat verdragspartijen verplicht bij de ontwikkeling en verwerving van nieuwe middelen en methoden van oorlogvoering te toetsen of die volgens het internationaal recht zijn toegestaan. Defensie heeft hiervoor de Adviescommissie Internationaal Recht en Conventioneel Wapengebruik (AIRCW) ingesteld die tot taak heeft de Minister van Defensie hierover te adviseren. Aanbeveling 6 van het advies heeft hier betrekking op:
De AIV/CAVV acht het noodzakelijk dat bij de (toekomstige) verwerving van autonome wapens de procedure met betrekking tot artikel 36 van het Eerste Aanvullende Protocol bij de Geneefse Verdragen, stringent wordt toegepast. De AIV/CAVV is van mening dat het concept van betekenisvolle menselijke controle hierbij als handvat moet dienen. De Adviescommissie Internationaal Recht en Conventioneel Wapengebruik dient naar de mening van de AIV/CAVV een sleutelrol te spelen bij de advisering over de verenigbaarheid van het betreffende autonome wapen met het geldende en in ontwikkeling zijnde internationale recht en in het bijzonder het humanitaire oorlogsrecht.
Het kabinet onderschrijft het belang hiervan. Bij de verwerving van wapensystemen met autonome functies zal dan ook expliciet worden vermeld dat dit middel door de AIRCW is getoetst aan het internationaal recht.
De adviescommissie doet de volgende aanbevelingen betreffende artikel 36 (aanbeveling 5) en de toepassing van het bestaande recht bij inzet van autonome wapens (aanbeveling 10):
De AIV/CAVV adviseert de regering om tijdens de komende CCW-bijeenkomsten te pleiten voor bredere nationale implementatie van artikel 36 procedures, voor meer transparantie over de uitkomsten van gevolgde toetsingsprocedures en voor meer internationale uitwisseling van informatie.
De AIV/CAVV adviseert de regering in internationaal (CCW) verband te streven naar de totstandkoming van een interpretative guide waarin een interpretatie van het bestaande recht bij de inzet van autonome wapens is opgenomen. In een dergelijk document zouden bijvoorbeeld ook best practices kunnen worden opgenomen over onder meer de rol van betekenisvolle menselijke controle in artikel 36 procedures en bij de inzet van autonome wapens. Deze gids zou een voorlichtende en educatieve functie kunnen vervullen.
Zowel in 2014 als in 2015 heeft het kabinet in CCW-verband en daarbuiten ingezet op het belang van de toepassing van artikel 36. De inzet van Nederland heeft bijgedragen aan internationale informatie-uitwisseling van, en meer transparantie over, de toepassing van artikel 36. De Nederlandse inzet zal hier onverminderd op gericht blijven.
Bij de volgende CCW-Expert Meeting over autonome wapensystemen in april 2016 zal Nederland voorstellen om in CCW verband een interpretative guide op te stellen.
Juridische aansprakelijkheid
Wanneer mensen bij de inzet van autonome wapensystemen betekenisvolle controle uitoefenen in de wider loop van besluitvorming is er geen aansprakelijkheidsprobleem (accountability gap), zo stelt de adviescommissie. Het geldende rechtsregime is in dat geval voldoende om overtreders aansprakelijk te stellen. Er verandert in zo’n situatie immers niets in de aansprakelijkheid van commandanten, ondergeschikten of politieke en civiele verantwoordelijken die de besluiten nemen. Ook de staatsaansprakelijkheid blijft ongewijzigd bij de inzet van autonome wapensystemen onder menselijke controle, aldus de adviescommissie.
Het kabinet onderschrijft deze conclusie en benadrukt daarmee direct het belang van opleiding voor, en training van militairen die verantwoordelijk zijn voor de inzet van autonome wapensystemen. Defensie hanteert deze opleiding en training reeds als voorwaarde voor de operationele inzet van wapensystemen die in hoge mate automatisch kunnen werken, zoals de Goalkeeper aan boord van schepen en de Patriot grond-luchtraketten. Dit geldt evenzeer bij toekomstige wapensystemen.
Ethische beginselen
In de internationale discussie over autonome wapensystemen is de vraag aan de orde of de menselijke waardigheid niet wordt aangetast als mensen door volledig autonome machines worden gedood. Het advies stelt vast dat zolang autonome wapensystemen onder menselijke controle staan, ethische vraagstukken (zoals de menselijke waardigheid) over de inzet daarvan niet problematisch zijn. Zij verschillen daarin dan namelijk niet van andere wapensystemen. Voor de goede begripsvorming over de ethische aspecten van de invoering van meer autonomie acht de adviescommissie voortdurende maatschappelijke discussie hierover van groot belang (aanbeveling 9):
De AIV/CAVV adviseert de regering om bij de ethische vorming van militairen, in het bijzonder commandanten, ook aandacht te geven aan ethische vragen die aan de orde kunnen zijn bij inzet van autonome wapens.
Ook in de huidige praktijk worden militairen onderwezen over de ethische vragen die aan de orde zijn bij wapeninzet. Veel ethische vragen en humanitaire overwegingen zijn overigens al in recht gecodificeerd, zoals in belangrijke delen van het humanitair oorlogsrecht en verschillende mensenrechtenverdragen. Daarnaast bieden de specifieke geweldsinstructies of Rules of Engagement (RoE), die voor elke missie worden vastgesteld, houvast voor afwegingen over wapeninzet. RoE maken deel uit van de wider loop van het targeting proces (besluitvormingsproces). Als er buiten de RoE nog ethische vragen overblijven die onder de verantwoordelijkheid van individuele militairen vallen, worden die door Defensie opgenomen in de ethische curricula zoals die in de diverse opleidingen worden gehanteerd.
Autonome wapensystemen moeten onder menselijke controle blijven staan
Bij ontbreken van betekenisvolle menselijke controle in de wider loop van het targeting proces (besluitvormingsproces) wordt wel gesproken van «volledig autonome wapensystemen». Dergelijke systemen bestaan nog niet. De adviescommissie acht het onwaarschijnlijk dat staten de komende decennia bewust volledig autonome wapensystemen (laten) ontwikkelen. Daarbij ziet de adviescommissie niet in waarom een staat die ambitie zou hebben, als dat al ooit technisch mogelijk wordt. Zij adviseert daarom om verschil te maken tussen autonome wapensystemen onder betekenisvolle menselijke controle en volledig autonome wapensystemen zonder betekenisvolle menselijke controle (aanbeveling 2):
De AIV/CAVV acht het noodzakelijk dat onderscheid wordt gemaakt tussen autonome wapens (waarbij de mens een cruciale rol speelt in de wider loop) en volledig autonome wapens (waarbij de mens beyond the wider loop is en er niet langer sprake is van menselijke controle).
Het kabinet onderstreept nadrukkelijk het belang van dit onderscheid. Het kabinet wijst de mogelijke ontwikkeling en inzet van volledig autonome wapens op voorhand af. Het is de verantwoordelijkheid van de staat om bij de inzet van alle soorten wapensystemen te voldoen aan het internationaal recht. Bij volledig autonome wapensystemen kan hieraan niet worden voldaan.
Moratorium
De Speciaal Rapporteur van de VN Mensenrechtenraad, Christof Heyns, concludeerde in zijn rapport over Lethal Autonomous Robotics (LARs) van 2013 dat deze robots veel vragen oproepen. Hij adviseerde de staten een internationaal raamwerk op te stellen en in de tussentijd een moratorium op LARs in te stellen.6 Tijdens de Expert Meeting over autonome wapensystemen van de CCW in april 2015 stelde hij zijn advies enigszins bij. Hij concludeerde dat consensus lijkt te ontstaan over het belang van betekenisvolle menselijke controle als onderscheidend criterium. Autonome wapensystemen die onder betekenisvolle menselijke controle staan zouden volgens de Special Rapporteur door staten ontwikkeld moeten kunnen worden. 7 Dit geldt niet voor volledig autonome wapensystemen, daarvoor bepleit hij een verbod. De NGO’s die samenwerken in de internationale campagne Stop Killer Robots roepen op tot een moratorium op volledig autonome wapensystemen.8 In juli 2015 onderschreven meer dan duizend prominente wetenschappers en ondernemers een brief waarin wordt opgeroepen tot een verbod op autonome wapensystemen die niet onder betekenisvolle menselijke controle staan.9
Ook de adviescommissie concludeert dat autonome wapensystemen altijd onder betekenisvolle menselijke controle moeten staan. Maar zij acht een moratorium op de ontwikkeling en inzet van volledig autonome wapensystemen thans niet wenselijk en niet haalbaar en voert hiervoor onderstaande argumentatie aan.
Wenselijkheid
De adviescommissie verwacht dat autonome wapensystemen zeker de komende tien jaar onder betekenisvolle menselijke controle zullen staan. Volgens het advies biedt dat voldoende mogelijkheden voor de naleving van het internationaal recht en respect voor de menselijke waardigheid. De technologie van nu en de komende tien jaar is daarmee niet onrechtmatig of onethisch. De commissie wijst verder op de (technologische) mogelijkheden om de menselijke controle op toekomstige autonome wapensystemen te vergroten.
Haalbaarheid
Volgens de adviescommissie is een moratorium op de ontwikkeling en inzet van volledig autonome wapensystemen bovendien niet praktisch haalbaar. Veel kennis is dual use en heeft zowel civiele als militaire toepassingen. Hierdoor is op voorhand geen scherpe lijn te trekken tussen technologie die wel of niet is toegestaan. De vraagt rijst dan ook al snel, een moratorium waarop?
Verder wijst het advies er terecht op dat er mede vanwege al deze vragen binnen de CCW nu geen draagvlak voor een moratorium is. Tijdens de laatste bijeenkomst van de CCW bleken slechts vijf van de 121 leden hier voorstander van te zijn.
De adviescommissie sluit echter niet uit dat ontwikkelingen op het gebied van kunstmatige intelligentie en robotica in de toekomst kunnen vragen om herziening van haar visie. Aanbeveling 11 gaat hierover:
Gelet op de snelle ontwikkelingen op het gebied van robotica en kunstmatige intelligentie en de voortgaande internationale discussie (vooral in CCW-verband) over juridische, ethische en beleidsmatige vragen met betrekking tot autonome wapensystemen, adviseert de AIV/CAVV de regering over vijf jaar de bruikbaarheid van dit advies opnieuw tegen het licht te houden.
Zoals ook aangegeven in de reactie op de motie Grashoff10 tijdens de begrotingsbehandeling van Buitenlandse Zaken op 19 november jl. begrijpt het kabinet de grote zorgen die de samenleving heeft over de ontwikkelingen van robotica en kunstmatige intelligentie in relatie tot wapensystemen. Om die reden hecht het kabinet aan een zorgvuldige appreciatie van dit onderwerp en heeft het daartoe onder andere een adviesaanvraag ingediend bij het AIV en CAVV.
Zoals eerder aangegeven, wijst het kabinet de mogelijke ontwikkeling en inzet van volledig autonome wapens op voorhand af, omdat deze niet over betekenisvolle menselijke controle beschikken.
Echter, het kabinet deelt de mening van de adviescommissie over de huidige onhaalbaarheid van een moratorium op volledig autonome wapensystemen, een mening die overigens ook wordt gedeeld door het Internationaal Comité van het Rode Kruis.11 Het kabinet onderschrijft derhalve de argumenten die de adviescommissie hiervoor aanvoert. Niettemin blijft het van belang dit vraagstuk te blijven volgen en gezien de snelle technologische ontwikkelingen dit advies conform de aanbeveling over vijf jaar opnieuw tegen het licht houden.
Vervolgproces
Aanbeveling 3 van het advies gaat over de rol van Nederland in het maatschappelijke debat over autonome wapensystemen:
De AIV/CAVV is van mening dat Nederland een actieve rol moet blijven spelen bij discussies in CCW-verband over juridische, ethische en beleidsmatige vragen met betrekking tot ontwikkelingen op het gebied van autonome wapensystemen. De AIV/CAVV onderschrijft het belang van (maatschappelijke) discussie over nieuwe technologieën en adviseert de regering hierover nauw in contact te blijven met onder meer NGO’s en de wetenschappelijke wereld.
Het kabinet voert ook deze aanbeveling uit. Zo is het kabinet opdrachtgever of sponsor van diverse (wetenschappelijke) onderzoeken in het kader van autonome wapensystemen. Ook ondersteunt het kabinet het onderzoek naar autonome wapensystemen van het VN-onderzoeksinstituut, UN Institute for Disarmament Research (UNIDIR). UNIDIR heeft in dat kader de afgelopen periode, mede met Nederlandse financiële ondersteuning, al vier publicaties uitgebracht12. Verder zal Nederland zijn bijdrage aan het internationale debat hierover vanzelfsprekend voortzetten en zal daarbij handelen langs de lijnen zoals uiteengezet in deze kabinetsreactie.
Reactie op rapport «Mind the gap: The Lack of Accountability for Killer Robots»
Zoals de Tweede Kamer is toegezegd13, gaat deze kabinetsreactie tevens in op het rapport «Mind the Gap: The Lack of Accountability for Killer Robots» van Human Rights Watch en International Human Rights Clinic uit april 2015. In dit rapport waarschuwen beide NGO’s voor een aansprakelijkheidsprobleem bij de inzet van volledig autonome wapenssystemen. Zij gebruiken daarbij de volgende definitie: the term «fully autonomous weapon» is used to refer to both «out-of-the-loop» weapons as well as weapons that allow a human on the loop, but with supervision that is so limited that the weapons are effectively «out of the loop.» 14
Net als Human Rights Watch en International Human Rights Clinic vindt het kabinet dat autonome wapensystemen te allen tijde onder menselijke controle moeten staan. Het kabinet hanteert daarbij de door de adviescommissie gehanteerde definitie. Bij de inzet autonome wapens moet er dus sprake zijn van betekenisvolle menselijke controle binnen de wider loop van besluitvorming. In dergelijke gevallen ontstaat, zoals aangegeven in deze kabinetsreactie, geen aansprakelijkheidsprobleem. Voor de volledigheid wijst het kabinet er nogmaals op dat het de ontwikkeling van volledig autonome wapensystemen afwijst.