Ingediend | 16 oktober 2024 |
---|---|
Beantwoord | 19 november 2024 (na 34 dagen) |
Indiener | Barbara Kathmann (PvdA) |
Beantwoord door | Zsolt Szabó (VVD) |
Onderwerpen | werk werkgelegenheid |
Bron vraag | https://zoek.officielebekendmakingen.nl/kv-tk-2024Z16043.html |
Bron antwoord | https://zoek.officielebekendmakingen.nl/ah-tk-20242025-597.html |
Ja
Ja, er is contact opgenomen door het Ministerie van BZK met TikTok in Nederland nadat bekend werd dat het contentmoderatieteam daar was ontslagen. TikTok gaf aan dat dit ontslag geen invloed heeft op het totale aantal moderatoren binnen de EU. Het platform heeft ook aangegeven dat er geen grote veranderingen zijn in het aantal moderatoren per taalgroep en dat het niet van plan is het aantal menselijke contentmoderatoren aanzienlijk te verminderen.
Zoals aangegeven, stelt TikTok dat het ontslag van het moderatieteam in Nederland geen grote impact heeft op het aantal moderatoren per taalgroep. Dit betekent dat er niet aanzienlijk minder Nederlandstalige moderatoren zijn en dat Nederlandse content niet minder gemodereerd wordt. Mocht echter blijken dat TikTok’s informatie onjuist is en er wel beduidend minder Nederlandse moderatoren zijn, waardoor systeemrisico’s toenemen, dan is het aan de Europese Commissie (EC), als toezichthouder, om dit verder te onderzoeken en te evalueren.
Ik begrijp de wens om menselijke controle in contentmoderatie. Zoals ook aangegegeven in de Voortgangsbrief Rijksbrede strategie voor de effectieve aanpak van desinformatie is het kabinet van mening dat te veel sociale media platformen hebben nagelaten voldoende investeringen te doen in context-specifieke, talige en culturele menselijke expertise in Nederland. Ik heb dan ook een onderzoek uitgezet naar de beste praktijken in contentmoderatie op zeer grote online platforms en zoekmachines, zodat er geleerd kan worden welke contentmoderatiesystemen het beste werk verrichten. De resultaten van dit onderzoek zullen in het najaar van 2025 beschikbaar zijn en zullen ook met de Europese Commissie gedeeld worden.
Artikel 16 van de DSA gaat over het inrichten van een toegankelijk en gebruiksvriendelijk kennisgevings- en actiemechanisme. Hierin zijn aanbieders van online hostingsdiensten verplicht om gebruikers op de hoogte te stellen wanneer zij voor die verwerking of besluitvorming geautomatiseerde middelen gebruiken. Ook artikel 17 van de DSA geeft aan dat gebruikers geïnformeerd moeten worden als content wordt gemodereerd met geautomatiseerde middelen. De gebruiker heeft vervolgens het recht om daar een klacht over in te dienen, die beslissing voor te leggen aan een externe geschilbeslechtscommissie als die er is, of naar de rechter te gaan. Het kabinet wil burgers beter in staat stellen om hun rechten te halen bij sociale mediaplatformen. Zoals vermeld in de Voortgangsbrief Rijksbrede strategie voor een effectieve aanpak van desinformatie, werkt het Ministerie van BZK daarom aan de verkenning van een meldvoorziening en een onafhankelijk geschillenorgaan, zoals beschreven in artikel 21 van de DSA.
Artikel 20 van de DSA verwijst naar de inrichting van een klachtensysteem. Hierin zijn aanbieders van online diensten verplicht om een doeltreffend intern klachtenafhandelingssysteem in te stellen dat elektronisch en gratis te gebruiken is voor gebruikers. De verwijzing dat aanbieders van onlineplatforms verplicht zijn om genomen besluiten onder toezicht van gekwalificeerd personeel te nemen en niet louter geautomatiseerde middelen in te zetten, verwijst naar de genomen besluiten in een interne klachtenhandelingssysteem en niet in hun inhoudsmoderatie.
Met betrekking tot inhoudsmoderatiebeslissingen, al dan niet geautomatiseerd, zijn de artikelen 42 en 15 relevant. Artikel 42 van de DSA verplicht zeer grote onlineplatforms om rapporten te publiceren met details over hun inhoudsmoderatie-inspanningen. Deze rapporten moeten onder andere aangeven hoeveel personeel ze inzetten per officiële taal van de EU-lidstaten, hun kwalificaties en taalkennis, en hoe goed hun moderatie werkt in elke taal.
Artikel 15 van de DSA verplicht zeer grote onlineplatforms om te rapporteren over hun inhoudsmoderatie. Deze rapporten moeten duidelijk en eenvoudig te begrijpen zijn en informatie bevatten over acties die ze hebben genomen om inhoud te modereren, zoals het gebruik van geautomatiseerde tools. Ze moeten ook details geven over de nauwkeurigheid van deze tools, mogelijke fouten, en welke maatregelen ze hebben genomen om fouten te beperken. De informatie moet ook worden ingedeeld op basis van het type illegale inhoud en de gebruikte moderatiemethode.
Ja, dat is mogelijk en hangt ervan af of TikTok elders voldoende Nederlandstalige moderatoren met kennis van de context in dienst heeft. TikTok dient in transparantieverslagen aan te geven hoeveel personeel ze inzetten per officiële taal van de EU-lidstaten. Hierbij is het belangrijk om erop te wijzen dat de DSA vraagt om een uiteenzetting van de hoeveelheid personeel per officiële taal binnen de EU, ongeacht de locatie van deze contentmoderatoren.
In het meest recente transparantieverslag (januari-juni 2024) vermeldt TikTok 160 Nederlandstalige inhoudsmoderatoren. Als in het volgende transparantieverslag blijkt dat TikTok een significante vermindering van Nederlandstalige contentmoderatoren heeft en dit leidt tot een systeemrisico, kan het bedrijf nog steeds voldoen aan artikel 34 en 35 van de DSA, mits er voldoende mitigerende maatregelen zijn genomen om deze risico’s te beheersen, zoals bijvoorbeeld de aanpassing van inhoudsmoderatieprocedures en daarvoor gebruikte besluitvormingsprocedures of moderatiemiddelen.
Het oordeel of TikTok de DSA correct genoeg naleeft is aan de Europese Commissie. De Europese Commissie is namelijk de primaire toezichthouder voor het naleven van de DSA door zeer grote platforms, waaronder TikTok. Sinds de inwerkingtreding van de DSA heeft de EC haar rol als toezichthouder voortvarend opgepakt en wij volgen nauwlettend de ontwikkelingen. Zo startte de Commissie in 2024 twee formele procedures tegen TikTok om te onderzoeken of er sprake is van overtredingen van de DSA.2 Artikelen 74 en 76 van de DSA geven de Commissie een bevoegdheid om een boete of last onder dwangsom op te leggen als er daadwerkelijk sprake is van een overtreding.
De Nederlandse overheid volgt de verdere uitvoering van de DSA en ondersteunt de Commissie waar het kan. Zoals in antwoord vier is aangegeven is er namens het Ministerie van BZK een onderzoek uitgezet, waarin wordt onderzocht welke beste moderatiepraktijken er bestaan bij zeer grote online platformen en zoekmachines. De resultaten hiervan zullen in het najaar van 2025 bekendgemaakt worden.
Het is publiekelijk beschikbare informatie hoeveel personeel VLOP’s hebben die in het Nederlands modereren. Artikel 42 van de DSA verplicht VLOP’s namelijk om halfjaarlijks transparantieverslagen te publiceren met details over onder andere hun inhoudsmoderatie-inspanningen. Deze rapporten moeten bijvoorbeeld aangeven hoeveel personeel ze inzetten per officiële taal van de EU-lidstaten, hun kwalificaties en taalkennis, en hoe goed hun moderatie werkt in elke taal. Zoals reeds aangegeven had TikTok 160 Nederlandstalige inhoudsmoderatoren in de periode januari-juni 2024. Meta3 dat verantwoordelijk is voor de VLOP’s Instagram en Facebook had in totaal 96 Nederlandstalige moderatoren in de periode van april-september 2024. En X/Twitter had geen enkele Nederlandstalige contentmoderator in de periode van april-september 2024.4 Verder is het niet verplicht om in de transparantieverslagen op te nemen in welke landen de contentmoderatoren gevestigd zijn.
De DSA verbiedt ook niet dat een platform gebruik maakt van geautomatiseerde middelen voor het verrichten van moderatie. Maar als dat gebeurt dan moet het platform dat benoemen in het bericht waarmee ze een gebruiker informeren dat ze diens content hebben gemodereerd (artikel 17). De gebruiker heeft vervolgens het recht om daar een klacht over in te dienen, die beslissing voor te leggen aan een externe geschilbeslechtscommissie als die er is, of naar de rechter te gaan.
Indien een gebrek aan menselijke controle leidt tot dusdanige risico’s dat het een systeemrisico in de zin van artikel 34 DSA vormt, dan moeten zeer grote online platforms en zoekmachines daar mitigerende maatregelen tegen nemen. Zoals bijvoorbeeld de aanpassing van inhoudsmoderatieprocedures en daarvoor gebruikte besluitvormingsprocedures of moderatiemiddelen. Ook de opleiding en lokale deskundigheid van moderatoren behoort hiertoe.
Ja