Aan de Voorzitter van de Tweede Kamer der Staten-Generaal
Den Haag, 14 april 2023
Op 14 november 2022 heeft de Tweede Kamer een motie1 van de leden Dekker-Abdulaziz en Ceder aangenomen (Handelingen II 2022/23, nr. 28, item 9). In deze motie wordt de regering verzocht om op nationale en Europese schaal sociale mediaplatforms te dwingen de algoritmes op hun platformen voor kinderen uit te zetten of aangepaste varianten te maken. Tijdens het wetgevingsoverleg Begrotingsonderdelen van BiZa, EZK en J&V die zien op digitalisering en dat op 14 november 2022 plaatsvond, heb ik toegezegd om schriftelijk terug te komen op de vraag wat de Verordening digitale diensten («Digital Services Act», afgekort: «DSA»)2 hierover regelt.3 In deze brief ga ik in op deze vraag en reageer ik op de eerdergenoemde motie. Deze brief zend ik mede namens de Minister van Economische Zaken en Klimaat vanwege haar verantwoordelijkheid voor (de uitvoering van) de DSA.
De DSA, die op 19 oktober 2022 door de Raad van de Europese Unie en het Europees Parlement is ondertekend en op 16 november 2022 in werking is getreden, reguleert online tussenhandeldiensten, waaronder online platforms, en regelt het toezicht daarop. De algemene verplichtingen in de DSA gaan vanaf 17 februari 2024 voor alle partijen gelden. De verplichtingen voor zeer grote online platforms zoals TikTok, Instagram en YouTube, worden al eerder van toepassing, naar verwachting vanaf medio 2023. Hieronder zal ik de regels uit de DSA over aanbevelingssystemen en de bescherming van kinderen (minderjarigen) verder toelichten.
Ik zie dat sociale media risico’s voor gebruikers met zich meebrengen. Zo kunnen gebruikers van sociale media in een zogenaamde informatiefuik terecht komen. Aanbevelingssystemen kunnen daar een rol in spelen doordat ze de (vermeende) voorkeuren van gebruikers gebruiken voor het aanbevelen van content. Als gebruikers daardoor steeds meer van hetzelfde voorgeschoteld krijgen, komen zij in een informatiefuik terecht. Ook kunnen sociale media de verspreiding van desinformatie in de hand werken, schermverslaving als gevolg hebben of bijdragen aan de ontwikkeling van een negatief zelfbeeld bij kinderen en (jong-) volwassenen.
Toch acht ik het niet wenselijk om sociale mediaplatforms in zijn algemeenheid te verplichten om algoritmes uit te zetten voor minderjarigen. Hoewel ik erken dat algoritmen risico’s kunnen creëren, biedt de inzet ervan ook voordelen voor gebruikers. Ze kunnen juist ook worden gebruikt om minderjarigen passende content aan te bieden. Zo kunnen algoritmen er bijvoorbeeld aan bijdragen dat inhoud geordend kan worden, zodat aan kinderen enkel een bepaalde categorie inhoud getoond wordt, die voor hun leeftijd geschikt is. Een algemeen verbod op het gebruik van algoritmes voor kinderen zou een positief gebruik ervan onmogelijk maken en kinderen en ouders de mogelijkheid ontnemen om categorieën inhoudt te selecteren. Daarom zie ik een algeheel verbod op het gebruik van algoritmes niet als een proportionele maatregel. De DSA vindt hierin mijns inziens de juiste balans door de keuzevrijheid van kinderen en ouders te respecteren en mogelijke negatieve effecten van algoritmes aan te pakken.
De DSA en aanbevelingsalgoritmes
De DSA stelt in de artikelen 27 en 38 voorwaarden aan het gebruik van aanbevelingsalgoritmes.
• Op grond van artikel 38 moeten zeer grote online platforms en zoekmachines – zoals TikTok, Instagram en YouTube – hun gebruikers ten minste één optie aanbieden waarmee ze de dienst kunnen gebruiken zonder dat die dienst gebruik maakt van profilering voor het doen van aanbevelingen. Gebruikers van deze platformen en zoekmachines krijgen dus de mogelijkheid om dit soort gepersonaliseerde aanbevelingssystemen uit te zetten en in plaats daarvan gebruik te maken van een aanbevelingssysteem dat niet gebaseerd is op profilering. Dit is een belangrijke waarborg voor gebruikers. Zeer grote online platforms en zoekmachines zullen dan een andere manier moeten aanbieden voor het ordenen van de informatie die zij toegankelijk maken of verspreiden. Bijvoorbeeld door informatie in chronologische volgorde van het moment van uploaden te presenteren. Het risico dat kinderen in een informatiefuik komen is bij een niet-gepersonaliseerde presentatie van informatie kleiner. Omdat de DSA niet voorschrijft wat voor soort alternatief systeem de zeer grote online platforms en de zeer grote online zoekmachines moeten aanbieden en zij hier dus enige keuzevrijheid hebben, zal ik de komende tijd kritisch volgen op welke wijze zeer grote online platforms- en zoekmachines invulling geven aan deze verplichting en wat dat betekent voor minderjarige gebruikers.
• Op grond van artikel 27 moeten alle online platforms – ongeacht het aantal gebruikers – bovendien transparant zijn over de belangrijkste parameters die in hun aanbevelingssystemen worden gebruikt. Tevens dienen zij transparant te zijn over eventuele opties voor afnemers van de dienst om deze parameters te wijzigen of te beïnvloeden. Als gebruikers de mogelijkheid hebben om het aanbevelingssysteem aan te passen, dan moet die functionaliteit makkelijk toegankelijk zijn.
• Omdat zeer grote online platforms moeten voldoen aan zowel artikel 27 als 38 moeten zij dus ten minste één makkelijk toegankelijke optie gaan bieden waarmee mensen het gebruik van een aanbevelingsalgoritme op basis van profilering uit moeten kunnen zetten.
De DSA en de specifieke bescherming van minderjarigen
De DSA bevat daarnaast nog diverse bepalingen waarmee de bescherming van minderjarigen online gaat worden verbeterd. Voor de volledigheid en om uw Kamer zo goed mogelijk te informeren zijn die hierna beschreven.
• Aanbieders van tussenhandeldiensten, zoals online platforms, die zich voornamelijk op minderjarigen richten moeten bijzondere inspanningen leveren om de uitleg over hun algemene voorwaarden eenvoudig en begrijpelijk te maken voor minderjarigen. Of een tussenhandeldienst zich voornamelijk richt op minderjarigen kan onder meer blijken uit het ontwerp van de dienst, de marketing ervan, of uit het feit de dienst overwegend door minderjarigen worden gebruikt (Artikel 14, derde lid).
• Onlineplatforms die toegankelijk zijn voor minderjarigen worden verplicht om passende en evenredige maatregelen te nemen om een hoog niveau van privacy, veiligheid en bescherming van minderjarigen binnen hun dienst te waarborgen (artikel 28 lid 1). Dit kunnen zij bijvoorbeeld doen door hun online interfaces of onderdelen daarvan standaard zo te ontwerpen dat het hoogste niveau van privacy, veiligheid en beveiliging voor minderjarigen wordt gewaarborgd. Dit kan worden gedaan door normen voor de bescherming van minderjarigen vast te stellen, of door deel te nemen aan gedragscodes ter bescherming van minderjarigen. Online platforms moeten verder rekening houden met de beste praktijken en beschikbare richtsnoeren, zoals in de mededeling van de Europese Commissie over «Een digitaal decennium voor kinderen en jongeren: de nieuwe Europese strategie voor een beter internet voor kinderen (BIK+)».
Aanbieders van onlineplatforms mogen geen reclame tonen op hun interface op basis van profilering met gebruikmaking van persoonsgegevens van minderjarige gebruikers. Deze verplichting geldt wanneer de dienst zich er met redelijke zekerheid van bewust is dat de afnemer van de dienst minderjarig is (artikel 28 lid 2). Dit artikel draagt bij aan de doelstelling van het coalitieakkoord om minderjarigen beter te beschermen tegen niet-passende online reclame.
• Onlineplatforms wordt het verboden om gebruik te maken van zogenaamde «dark patterns». Zij mogen hun online interfaces niet zodanig ontwerpen, organiseren of beheren dat gebruikers daardoor zouden kunnen worden misleid of gemanipuleerd, of dat hun vermogen om vrije en geïnformeerde beslissingen te nemen wordt verstoord (artikel 25 lid 1). Dit verbod beschermt uiteraard ook kinderen, want zij zijn kwetsbaarder voor beïnvloeding door dit soort «dark patterns». Verdere uitwerking van dit verbod kan door de Europese Commissie nog worden gegeven in richtsnoeren.
• Zeer grote onlineplatforms- en zoekmachines – zoals Google, Facebook, TikTok en YouTube – worden verplicht om ten minste een keer per jaar zogenaamde «systeemrisico’s» die voortvloeien uit het ontwerp of uit de werking van hun diensten te onderzoeken (artikel 34). Als zij vaststellen dat hun dienst vatbaar is voor dit soort risico’s dan moeten ze risicobeperkende maatregelen nemen (artikel 35).
Eén van de systeemrisico’s die zij op grond van de DSA nadrukkelijk moeten onderzoeken is of hun dienst(en) werkelijke of voorzienbare negatieve effecten hebben op de bescherming van minderjarigen. Een ander relevant systeemrisico in dit kader zijn ernstige negatieve gevolgen voor het lichamelijke en geestelijke welzijn van personen. Zeer grote online platforms moeten dus nadrukkelijk rekening houden met de negatieve effecten die hun algoritmes kunnen hebben op kinderen en zij moeten deze systemen zo nodig aanpassen. Ze moeten dit bovendien laten onderzoeken door externe auditors (artikel 37). Bovendien krijgen onafhankelijke onderzoekers de mogelijkheid van toegang tot data van deze zeer grote platforms, zodat zij ook onderzoek kunnen doen naar deze systeemrisico’s bij een of meerdere zeer grote online platforms (artikel 40).
Met de bepalingen in de DSA over aanbevelingssystemen wordt het doel van de motie4 bereikt. Die beschouw ik hiermee als afgedaan.
Zoals toegelicht bevat de DSA naast de artikelen 27 en 38 verder nog diverse bepalingen waarmee de bescherming van minderjarigen online gaat worden verbeterd, onder meer tegen niet-passende online reclame, zoals in het coalitieakkoord ten doel is gesteld. Met de DSA wordt dus een belangrijke stap gezet naar het beter beschermen van minderjarigen die gebruikmaken van sociale mediaplatforms.
Wel hangt de mate van effectiviteit van de bepalingen af van de uitvoering die hieraan wordt gegeven door de online platforms. Zo is het voor de bepalingen die specifiek zien op de bescherming van minderjarigen van belang dat er adequate leeftijdsverificatie plaatsvindt. Daarom zal ik met aandacht volgen hoe de online platforms leeftijdsverificatie zullen toepassen.
Parallel aan het DSA-stelsel breng ik aan de hand van expertsessies in kaart hoe leeftijdsverificatie op een adequatere manier kan plaatsvinden5. Voor de zomer zal ik een brede beleidsbrief over de bescherming van kinderen in de digitale wereld aan uw Kamer sturen. Het onderwerp adequate leeftijdsverificatie zal onderdeel zijn van deze brief.
De Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties, A.C. van Huffelen