Het nieuwe kabinet moet snel duidelijkheid scheppen over de regels voor kunstmatige intelligentie (AI), zegt de Autoriteit Persoonsgegevens (AP), de privacywaakhond van het kabinet. De autoriteit waarschuwt dat de Nederlandse autoriteiten momenteel weinig kunnen doen tegen onveilige en discriminerende algoritmen. De waakhond wil het toezicht verbeteren.

Aleid Wolfsein, voorzitter van de AP, wijst erop dat algoritmen er in het verleden toe hebben geleid dat burgers ten onrechte werden verdacht van fraude met kinderopvangtoeslag. “Vijf jaar na het uitkeringsschandaal zijn de lessen duidelijk, maar blijft de follow-up achter. Dit komt vooral door het ontbreken van strikte regels voor algoritmen en AI, en de handhaving daarvan”, aldus Wolfsen.

De autoriteit heeft een ‘barometer’ ontwikkeld om de mogelijke gevolgen van AI te monitoren. Het bestaat uit negen componenten. Zes maanden geleden werden er twee rode vlaggen gehesen. De registratie van algoritmen en AI-systemen was ontoereikend en er was geen duidelijk overzicht van incidenten.

Zes maanden later is dat nog steeds het geval, en nu zijn er ook nog twee andere alarmsignalen gehesen. De ‘kaders en bevoegdheden’ voor toezicht zijn nog niet goed geregeld en er bestaan ​​geen duidelijke normen voor AI-systemen.

Ook waarschuwt de waakhond dat jongeren niet voldoende worden beschermd. Ze gebruiken AI niet alleen voor hun huiswerk, maar ook als een soort vriend om mee te chatten. Ze kunnen verslaafd raken en kunnen de risico’s niet goed inschatten, waarschuwde AP.

De autoriteit identificeerde de grootste gevaren als “de oncontroleerbare toename van deepfakes, AI-gestuurde fraude en psychologische schade veroorzaakt door chatbots.” De AP waarschuwde ook dat “AI-beveiligingsmaatregelen steeds meer achterlopen op de technologische ontwikkelingen.”

De autoriteit zei dat het erop lijkt dat sommige organisaties hun verantwoordelijkheden proberen te ontlopen. Ze moeten hun kunstmatige intelligentie registreren, maar doen dan alsof het gewone algoritmen zijn, waarvoor de regels minder streng zijn.

“AI-systemen met een hoog risico worden onder meer gebruikt in de gezondheidszorg en bij het opsporen van misdrijven. Vanaf volgend jaar zullen ze te maken krijgen met een hele reeks eisen op het gebied van technische documentatie, risicobeheer en vooringenomenheid. Misschien is het onbedoeld; misschien willen ze geen slapende honden wakker maken”, zegt Joost van der Burgth, hoofd van het toezicht op AI voor de AP.

Share.
© 2026 Nederlandkeer. Alle rechten voorbehouden.
Exit mobile version