Ingediend | 20 april 2023 |
---|---|
Beantwoord | 13 juni 2023 (na 54 dagen) |
Indiener | Barbara Kathmann (PvdA) |
Beantwoord door | Alexandra van Huffelen (staatssecretaris binnenlandse zaken en koninkrijksrelaties) (D66) |
Onderwerpen | bestuur organisatie en beleid |
Bron vraag | https://zoek.officielebekendmakingen.nl/kv-tk-2023Z07266.html |
Bron antwoord | https://zoek.officielebekendmakingen.nl/ah-tk-20222023-2885.html |
Ja, daarmee ben ik bekend.
Ik vind het onwenselijk als een chatbot zich voordoet als echt persoon en kinderen voorstelt om af te spreken. Snap Inc., het bedrijf achter Snapchat, heeft inmiddels in een gesprek met de Staatssecretaris van VWS en mij aangegeven dat de functionaliteit is aangepast waardoor de chatbot zich niet langer voordoet als een echt persoon en expliciet wordt vermeld dat het gaat om een chatbot. Toch vind ik het kwalijk dat er bij de introductie van deze nieuwe functie in Snapchat onvoldoende rekening is gehouden met de impact die dit kan hebben op kinderen. Ik wil bedrijven zoals Snap Inc. dan ook oproepen de Code Kinderrechten Online toe te passen, waarvan het eerste beginsel luidt: «zet het belang van het kind voorop bij het ontwerp». Ook met het oog op de aankomende AI-verordening vind ik het belangrijk dat ontwerpers die gebruik maken van een chatbot duidelijk en transparant zijn richting de eindgebruiker dat er sprake is van een AI-systeem. In het geval van kinderen vergt dat extra waarborgen.
Zoals hierboven gesteld heeft Snapchat aangegeven dat de chatbot zich niet langer voordoet als een echt persoon. Wanneer de aankomende AI-verordening van toepassing is, zal het bij chatbots verplicht zijn om natuurlijke personen te informeren dat zij interacteren met een AI-systeem, tenzij uit de omstandigheden en gebruikscontext al blijkt dat sprake is van een AI-systeem.
Jazeker, daarom is bovengenoemde AI-verordening van groot belang. Deze verordening verplicht dat natuurlijke personen worden geïnformeerd over het feit dat zij met een AI-systeem (zoals een chatbot) te maken hebben. Deze wetgeving moet de benodigde transparantie bieden over de vraag of je met een echt mens communiceert of met AI.
Dat kinderen met chatbots kunnen chatten hoeft in beginsel niet problematisch te zijn. Wel dient hierbij voor deze kinderen duidelijk te zijn dat zij chatten met een chatbot en geen echt persoon. In de AI-verordening (die nog in onderhandeling is) staat dat aanbieders van AI-systemen ervoor moeten zorgen dat AI-systemen die voor interactie met natuurlijke personen zijn bedoeld (zoals chatbots), zodanig worden ontworpen en ontwikkeld dat natuurlijke personen worden geïnformeerd dat zij met een AI-systeem te maken hebben, tenzij uit de omstandigheden en gebruikscontext al blijkt dat sprake is van een AI-systeem.
Een ander belangrijk risico is dat kinderen (gevoelige) persoonsgegevens verstrekken aan een chatbot en deze gegevens vervolgens worden opgeslagen, verwerkt en worden gebruikt om kinderen te profileren. Omdat kinderen vaak nog niet in staat zijn om een goede inschatting te maken van welke informatie ze beter wel of niet kunnen delen, hebben technologiebedrijven een belangrijke verantwoordelijkheid om daar geen misbruik van te maken en zich te houden aan de toepasselijke wet- en regelgeving, zoals de AVG de Digital Services Act (DSA), die binnenkort van toepassing wordt.
Ook hebben de platforms een eigen verantwoordelijkheid tegenover hun gebruikers om bij het vormgeven van hun diensten het belang van kinderen een belangrijke rol te laten spelen. Ik verwacht van deze bedrijven dat zij ook rekenschap geven van het feit dat bepaalde functionaliteiten risico’s voor kinderen met zich meebrengen. Ik spreek geregeld met verschillende grote technologiebedrijven over het beschermen van kinderen online. Tijdens deze gesprekken wijs ik deze grote techbedrijven op hun verantwoordelijkheid om kinderen en jongeren online te beschermen.
Een chatbot kan onjuiste of gevaarlijke adviezen geven. Ik vind het natuurlijk volledig onacceptabel als chatbots kinderen van gevaarlijke of onjuiste adviezen zouden voorzien.
In de DSA zijn bepalingen opgenomen om gebruikers van online platforms beter te beschermen. De verplichtingen uit de DSA gaan vanaf 17 februari 2024 voor alle tussenhandeldiensten gelden. Voor de zeer grote online platforms- en zoekmachines, waaronder sociale netwerken als TikTok, Snapchat, Instagram en Facebook, wordt de DSA al dit jaar van toepassing, namelijk op 25 augustus 2023. Zij zijn vanaf dan verplicht om jaarlijks de zogenaamde systeemrisico’s die voortvloeien uit het ontwerp of uit de werking van hun diensten in kaart te brengen en maatregelen te nemen om deze risico’s te verminderen. Tot deze systeemrisico’s behoren nadrukkelijk ook eventuele werkelijke of voorzienbare negatieve effecten op de uitoefening van grondrechten, waaronder de rechten van kinderen, en negatieve effecten met betrekking tot minderjarigen. Dit betekent dat de zeer grote online platforms, waaronder ook Snapchat, op grond van de DSA maatregelen moeten nemen om de kinderen te beschermen tegen chatbots wanneer deze (potentieel) een negatief effect hebben op de rechten of het welzijn van kinderen.
In de AI-verordening (die nog in onderhandeling is) staat dat aanbieders ervoor moeten zorgen dat AI-systemen die voor interactie met natuurlijke personen zijn bedoeld (zoals chatbots), zodanig worden ontworpen en ontwikkeld dat natuurlijke personen worden geïnformeerd dat zij met een AI-systeem te maken hebben, tenzij uit de omstandigheden en gebruikscontext al blijkt dat sprake is van een AI-systeem.
Ja, ik acht het van belang dat kinderen en hun ouders worden gewaarschuwd voor de risico’s voor kinderen in de digitale wereld. Zoals reeds aangegeven in de beantwoording van de Kamervragen die op 9 maart jl. aan uw Kamer zijn verzonden,2 zal ik een publiekscampagne starten om ouders en kinderen hierover beter te informeren. Voor de zomer zal ik een brede beleidsbrief over de bescherming van kinderen in de digitale wereld aan uw Kamer sturen. Hierin zal ik deze campagne ook verder toelichten.
Het is belangrijk dat schoolbesturen en leraren voldoende op de hoogte zijn van zowel de kansen als de risico’s van AI voor het onderwijs. Van onderwijsinstellingen vraagt dit om te doordenken hoe zij dit vanuit hun visie op goed onderwijs binnen hun instellingen willen vormgeven. Zij worden hierbij ondersteund door Kennisnet en SURF, die webinars en artikelen aanbieden. Ook hebben Kennisnet, de PO-Raad en de VO-raad een monitor ontwikkeld, MYRA, die scholen inzicht geeft in hoe zij ervoor staan op het gebied van technologie en digitalisering. Bewustwording over kunstmatige intelligentie vormt daar één van de onderdelen van, waaronder het gebruik van chatbots in de klas en computational thinking.
Aanvullend faciliteert het Ministerie van OCW een verantwoorde ontwikkeling van AI in het onderwijs, door het benutten van kansen en met oog voor de risico’s. Met behulp van het Nationaal Groeifonds investeert het Ministerie van OCW in deze ontwikkelingen tot 2035. Zo is er voor de komende tien jaar € 80 miljoen toegekend aan het Nationaal Onderwijslab AI (NOLAI) in het funderend onderwijs. Leraren en scholen in het funderend onderwijs kunnen deelnemen aan co-creatie projecten waarin zij samen met wetenschappers en leermiddelenmakers werken aan een goede inzet van intelligente technologieën in het onderwijs, vanuit een pedagogisch en didactisch verantwoorde basis, met oog voor risico’s als privacy en autonomie van leerlingen en leraren.
Zoals toegelicht onder vraag 8 zijn wij bezig met het ontwikkelen van een voorlichtingscampagne om het bewustzijn van de risico’s in de digitale wereld bij ouders en kinderen te verhogen en hun (meer) handelingsperspectief te bieden.