Ingediend | 30 maart 2023 |
---|---|
Beantwoord | 27 juni 2023 (na 89 dagen) |
Indiener | Renske Leijten |
Beantwoord door | Alexandra van Huffelen (staatssecretaris binnenlandse zaken en koninkrijksrelaties) (D66) |
Onderwerpen | economie ict organisatie en beleid |
Bron vraag | https://zoek.officielebekendmakingen.nl/kv-tk-2023Z05597.html |
Bron antwoord | https://zoek.officielebekendmakingen.nl/ah-tk-20222023-3046.html |
Het is uiteraard belangrijk dat er aandacht is voor de impact die de inzet van (krachtige) AI-systemen op onze samenleving kan hebben. Het afgelopen half jaar heeft de aandacht voor met name generatieve AI-systemen daarbij een enorme vlucht genomen.
Enerzijds maakt het karakter van deze technologie het mogelijk om als zeer geavanceerd hulpmiddel taken uit handen te nemen of te vergemakkelijken en bij te dragen aan maatschappelijke opgaven, anderzijds heeft het de potentie om bij te dragen aan desinformatie of manipulatie. Deze ongewenste, en in sommige gevallen potentieel ontwrichtende, effecten zijn zorgwekkend. Het tempo waarin deze technologie zich ontwikkelt brengt daarnaast onzekerheden met zich mee en daarbij bestaan er nog vraagtekens.
De Wetenschappelijke Raad voor het Regeringsbeleid (WRR) schrijft in haar rapport «opgave AI» dat effecten van (nieuwe) AI op publieke waarden niet vooraf te voorspellen zijn.2 Het is daarom belangrijk dat er in de maatschappij een continu debat gevoerd wordt en dat de overheid structureel signalen uit de samenleving ophaalt en uitgaat van een lerende aanpak. Momenteel wordt er daarom gewerkt aan het ontwikkelen van een visie op generatieve AI, naar aanleiding van een motie van de leden Dekker-Abdulaziz en Rajkowski.3 Ik informeer uw Kamer nog voor de zomer over de vorderingen. Deze visie zal open tot stand komen en zullen burgers, bedrijven en overheden actief worden gevraagd om bij te dragen aan dit traject.
Tegelijkertijd zet het kabinet zich in om de reeds bekende risico’s van AI te adresseren, in de eerste plaats via regulering. Naast al bestaande voor AI relevante wet- en regelgeving (zoals de AVG en de Grondwet) richt de Europese AI-verordening – die op dit moment nog in onderhandeling is – zich specifiek op een aanscherping van het reguleren van AI-systemen in de Europese Unie. De AI-verordening is productwetgeving, opdat AI systemen pas op de markt komen als aan de eisen van de verordening is voldaan. In de concept AI-verordening4 zijn AI-systemen onderverdeeld in verschillende categorieën. Afhankelijk van de categorie waarin een AI-systeem valt, gelden zwaardere of minder zware eisen. Het merendeel van de eisen geldt voor AI-systemen met hoge risico’s voor gezondheid, veiligheid en mensenrechten.
Daarnaast blijft het kabinet zich inzetten op het stimuleren van mensgerichte AI. Dit gebeurt onder andere door te investeren in de ontwikkeling van oplossingen voor verantwoorde en veilige AI via onder meer de ELSA-labs5 en het ROBUST-programma.6 Naast het weren van negatieve AI-toepassingen, moeten we positieve AI-toepassingen blijven omarmen.
Ja, ik kan mij vinden in de stelling dat maatschappelijke vraagstukken die voortkomen uit AI-toepassingen een brede maatschappelijke dialoog verdienen. Daarbij onderstreep ik dat het debat zowel maatschappelijk als politiek hierover momenteel op veel verschillende manieren wordt gevoerd.
Door de recente ontwikkelingen op het gebied van AI is de aandacht voor AI in het publieke debat sterk toegenomen. Dit is bijvoorbeeld merkbaar aan de grote (social) media-aandacht voor het onderwerp. Het maatschappelijk debat over de impact van AI op onze samenleving wordt echter al langere tijd gevoerd. Hierbij is aandacht voor zowel de enorme kansen die met een technologie als AI gemoeid gaan, alsook de risico’s. Zo is er afgelopen jaren veel aandacht geweest voor onderwerpen als transparantie, bias en het belang van menselijk toezicht op AI. Deze signalen zijn actief meegenomen in het nationale AI-beleid.
Om zicht te houden op nieuwe maatschappelijke vraagstukken en risico’s van AI is het van groot belang het gesprek hierover met verschillende partijen te blijven voeren. Deze maatschappelijke dialoog staat ook centraal bij het in 2023 komen tot een (kabinets)visie op generatieve AI, waarbij een stevig maatschappelijk debat over de maatschappelijke impact van (generatieve) AI met burgers, overheden en bedrijven zal worden gevoerd en als belangrijke input fungeert.
Hier ligt ook een brede en gedeelde verantwoordelijkheid, ook bij aanbieders en gebruikers van AI, wetenschappers, onderwijsinstellingen, burgers en overheden. En daar zet het kabinet zich vol voor in, bijvoorbeeld via de Nederlandse AI Coalitie. Via dit publiek-private samenwerkingsverband werken overheid, bedrijfsleven, onderwijs- en onderzoeksinstellingen en maatschappelijke organisaties in gezamenlijkheid aan maatschappelijk verantwoorde AI-toepassingen.
Daarnaast is de (aankomende) AI-verordening een directe reactie op de in de maatschappij gesignaleerde risico’s. De Europese Unie pakt met deze verordening de regie rondom de maatschappelijke vraagstukken rondom AI. Dit geldt ook voor een aantal andere Europese wetten, zoals de Digital Markets Act en de Digital Services Act. Bedrijven mogen alleen (digitale) producten en diensten leveren op de Europese markt als deze veilig zijn en mensenrechten respecteren.
Met uw Kamer deel ik de behoefte aan één duidelijk waardenkader dat toegepast kan worden in digitalisering in alle sectoren. Tegelijkertijd constateer ik dat er al meerdere waardenkaders zijn die tegelijkertijd gelden. Zo zijn de waarden die wij als maatschappij van fundamenteel belang achten vastgelegd in de Grondwet. Hierbij valt te denken aan non-discriminatie, privacy en vrijheid van meningsuiting. De bescherming van deze waarden is uitgewerkt in wetgeving. De AVG ziet bijvoorbeeld toe op de bescherming van persoonsgegevens. Op basis van deze wet- en regelgeving zijn er diverse handreikingen opgesteld om organisaties te helpen deze waarden ook in de praktijk te beschermen. Voorbeeld hiervan zijn de Impact Assessment Mensenrechten Algoritmen (IAMA),8 de handreiking non-discriminatie by design en de Code Goed Digitaal Openbaar Bestuur (CODIO)9.
Welke publieke waarden een rol spelen in concrete situaties is (mede) afhankelijk van de sector en het specifieke geval. Zo is de hierboven genoemde CODIO voor digitalisering in het openbaar bestuur opgebouwd als een bouwwerk dat bestaat uit drie fundamenten: (1) democratie, (2) rechtstaat en (3) bestuurskracht; zes principes: (1) participatie, (2) maatschappelijke waarde, (3) mensenrechten, (4) procedurele rechtvaardigheid, (5) bestuurskwaliteit en (6) verantwoordelijkheid; en 30 specifieke waarden. De code biedt een rijkheid aan waarden maar ook drie heldere ankerpunten: democratie, rechtstaat en bestuurskracht. De vraag die in het openbaar bestuur wordt gesteld ziet minder op een aanvullend waardenkader dan op handreiking bij de toepassing van alle bestaande kaders. Daarom ontwikkel ik bijvoorbeeld een implementatiekader «verantwoorde inzet van algoritmes» met daarin alle verplichte en aanbevolen onderdelen waarmee rekening moet worden gehouden bij het ontwikkelen en inzetten van algoritmes.
Tegelijkertijd heb ook ik de behoefte om de bestaande waardenkaders in samenhang te beschouwen en te verbinden. In de brief over het implementatiekader, die u nog voor de zomer van mij ontvangt, zal ik aangeven hoe we daartoe willen komen.
Ik herken zorgen die genoemd worden in de oproep van techprominenten en het is goed dat zij daarvoor aandacht vragen.
De oproep richt zich echter in grote mate op toekomstige ontwikkelingen, terwijl we nu al impact zien van generatieve AI. Daarbij gaat het bijvoorbeeld om desinformatie en gevolgen voor het onderwijs. Deze gevolgen worden niet opgelost met een pauze. Het is daarom van belang om ook nu al actie te nemen.
Op de korte termijn werkt het kabinet aan adresseren van die gevolgen.10 Het kabinet werkt ook aan een integrale visie op generatieve AI naar aanleiding van een motie11 van uw Kamer.
Daarnaast is de oproep een steun in de rug voor de Nederlandse en Europese aanpak om tot mensgerichte AI te komen. Zoals in antwoord 1 beschreven, investeren we in het veiliger kunnen maken van AI-systemen en stellen gaan we via de AI-verordening eisen stellen om deze veiligheid te waarborgen.
In Nederland werken we ook aan het versterken van toezicht op algoritmes en AI. Diverse toezichthouders hebben met AI en algoritmes te maken. De DCA bij de AP richt zich vanaf januari 2023, conform de doelen in de inrichtingsnota algoritmetoezichthouder, op het komen tot gezamenlijke en sectoroverstijgende normuitleg.12 Bijvoorbeeld over transparantieverplichtingen in wet- en regelgeving. Ook faciliteert de AP het gezamenlijk uitleggen van juridische normen en kaders op het gebied van algoritmes en AI. Dit moet bijdragen aan het scheppen van duidelijkheid aan ondertoezichtgestelden – bijvoorbeeld bedrijven of overheden – over hoe en aan welke normen zij moeten voldoen als het gaat om de (verantwoorde) inzet van AI. Naast deze inspanningen van de DCA zal het kabinet het toezicht op basis van de AI verordening vormgeven zodra deze definitief tot stand is gekomen. Bij de voorbereiding, die nu al loopt zijn diverse toezichthouders betrokken.
Bij de ontwikkeling en het gebruik van AI en nieuwe digitale toepassingen wint de overheid advies in over de ethische aspecten van een breed scala aan organisaties, bedrijven en personen, waaronder de wetenschap en het maatschappelijk middenveld. Recente voorbeelden daarvan zijn onderzoeken van het Rathenau Instituut en de WRR. Deze organisaties worden ook betrokken bij het opstellen van de kabinetsvisie op generatieve AI.
Onderdelen van de rijksoverheid en andere (mede-)overheden hebben daarnaast ook zelf adviesorganen voor de ethische aspecten van het gebruik van AI en digitale toepassingen. Voorbeelden daarvan zijn de Commissie Data Ethiek van het UWV en de Adviescommissie Analytics bij het Ministerie van Financiën en ethische commissies bij gemeenten en provincies.