Toezine

Wekelijkse verdieping voor professionals in toezicht, handhaving en inspectie

Bezig met laden...
Big data in toezicht: grote zorgvuldigheid nodig

Big data in toezicht: grote zorgvuldigheid nodig

Van de zelfscankassa in de supermarkt tot de controle van je belastingaangifte: overal zijn algoritmes achter de schermen aan het werk. Hoe meer data je aan zo’n reeks wiskundige instructies voedt, hoe slimmer hij wordt. En daar begint voor toezichthouders de schoen te wringen, want hoe houd je grip op het gebruik van die data? Professor Lisette van der Hel, hoogleraar effectiviteit van het overheidstoezicht aan Nyenrode Business Universiteit, en Nart Wielaard, expert in big data, benoemen valkuilen en aandachtspunten.

“Datatechnologie staat bij Nederlandse toezichthouders nog in de kinderschoenen. Ze willen graag meer gebruikmaken van de vele nieuwe mogelijkheden, maar dat kan niet onbegrensd ”, stelt Lisette van der Hel. “Als een klant van commerciële bedrijven als Bol.com en Coolblue het voorstel van ‘Anderen kochten ook’ irritant vindt, is er niets aan de hand. Maar toezichthouders kunnen niet met hagel schieten en moeten bijzonder zorgvuldig zijn in hoe ze data gebruiken.”
“Kan een algoritme rekening houden met de persoonlijke omstandigheden van burgers?

Begrijpen we de algoritmes nog?

De inzet van data en algoritmes kan het toezicht naar een hoger niveau tillen, denkt Nart Wielaard. “Mits je zorgt dat zowel de gegevens die je erin stopt als de algoritmes die ermee aan het werk gaan deugdelijk zijn. Daar ligt in de praktijk nog een flinke uitdaging. Maar het kan wel: we denken vaak dat algoritmes een black box zijn. Maar dat zijn de hoofden van mensen ook. En daar kunnen we niet in kijken. De werking van algoritmes kunnen we juist wel transparant maken.”

Wie is Lisette van der Hel?

Prof. mr. dr. Lisette van der Hel-van Dijk RA is hoogleraar effectiviteit van het overheidstoezicht. Zij ontwikkelt nieuwe (internationale) toezichtstrategieën, coördineert wetenschappelijk onderzoek rond toezicht en verzorgt wetenschappelijke publicaties en opleidingen over dat onderwerp. Sinds september 2010 is zij verbonden aan de toezichtacademie van Nyenrode Business Universiteit. De toezichtacademie richt zich op de ontwikkeling van effectievere en efficiëntere vormen van toezicht vanuit een multidisciplinaire invalshoek. Van der Hel is ook strategisch adviseur bij de Belastingdienst.
Van der Hel zet daar vraagtekens bij. “Ook algoritmes kunnen nogal ondoorzichtig zijn. Op een gegeven moment valt voor mensen de technologie niet helemaal meer te volgen en is het de vraag hoe de uitkomsten tot stand zijn gekomen. Voor een toezichthouder is het belangrijk om keuzes te kunnen onderbouwen, bijvoorbeeld voor de rechter. Ook kunnen er fouten sluipen in de gebruikte modellen, waardoor burgers of bedrijven ten onrechte wel of niet worden geselecteerd voor toezicht. Kan een algoritme wel voldoende rekening houden met de persoonlijke omstandigheden van burgers? Dat is een belangrijke vraag voor toezichthouders waar gedragsbeïnvloeding de kern is van hun strategie. Denk aan de Belastingdienst of de Nederlandse Voedsel- en Warenautoriteit (NVWA). In principe kan een algoritme enerzijds de risicoselectie efficiënter maken terwijl het anderzijds kan zorgen voor een betere persoonlijke service.”

De rol van de mens

De mens vormt een groot risico op fouten in datagebruik, benadrukt Wielaard. “Wij maken de systemen. A fool with a tool, is still a fool. Een datawetenschapper kan zijn werk pas goed doen als hij in nauw contact met de opdrachtgever goed leert begrijpen welke conclusies uit data wel en niet relevant zijn.” Modellen leren op basis van data uit het verleden. “Wanneer data niet goed worden gebruikt kan dat leiden tot verkeerde voorspellingen”, voegt Van der Hel hieraan toe. “Stel dat de Belastingdienst in het verleden veel controles heeft uitgevoerd op donaties aan goede doelen. Het onderwerp giften komt dan onevenredig vaak voor in de verzamelde data. Een model zou op basis van die data kunnen concluderen dat de Belastingdienst veel aandacht aan giften moet besteden, terwijl er andere onderwerpen zijn waarvan je minder gegevens hebt verzameld die misschien wel risicovoller zijn. Datakwaliteit en het valideren van modellen is daarom essentieel in het toezicht.”
“De privacy komt al snel in het geding als je data gaat verzamelen.”
Net zo belangrijk als de kwaliteit is de context waarin de data zijn verzameld. Die heeft grote invloed op de interpretatie ervan. Daarbij gaat het volgens Wielaard vaak mis. “Uit een onderzoek naar ongevallen met boten blijkt dat mensen die een zwemvest dragen meer kans hebben om te verdrinken. Dat lijkt eerst heel raar. Maar de conclusie dat een zwemvest niet veiliger is, klopt natuurlijk niet. Want mensen trekken vaak pas een zwemvest aan als de omstandigheden al heel slecht zijn. Zo bezien zijn die data dus wél logisch.”

Omgaan met nieuwe technologie

Van der Hel onderschrijft het belang van de context voor het toezicht. Ze geeft een voorbeeld. “De Belastingdienst gebruikte bestaande camerabeelden van snelwegcamera’s voor een onderzoek naar privégebruik van de auto van de zaak. Dat mocht niet van de rechter. Die snelwegcamera’s zijn bedoeld om de snelheid te meten. De Hoge Raad oordeelde dan ook dat dit een schending was van het privéleven van zakelijke rijders, zonder toereikende wettelijke grondslag. Een toezichthouder mag data dus niet zomaar gebruiken voor een ander doel dan waarvoor ze worden verzameld. Een voorbeeld waarin nieuwe technologie wel goed werkt is het gebruik van drones door de NVWA voor het controleren van beroepsvissers.”

Wie is Nart Wielaard?

Nart Wielaard is expert op het gebied van big data. Samen met hoogleraar Sander Klous schreef hij de boeken ‘Wij Zijn Big Data’ en ‘Vertrouwen in een slimme samenleving’. Op 30 januari 2019 sprak hij over de toekomst van data en algoritmes op het Nyenrode Congres Toezicht, Technologie en Strategie tijdens zijn lezing ‘De impact van technologie’.
De privacy komt al snel in het geding als je data gaat verzamelen in combinatie met het gebruik van algoritmes, benadrukt Van der Hel. “Dat vraagt om zorgvuldigheid. Het is dan ook belangrijk dat toezichthouders op centraal niveau hun processen weloverwogen inrichten. Zo borgen ze datakwaliteit en het gebruik van algoritmes; zijn ze juist geprogrammeerd, worden de privacy-voorschriften in acht genomen, zijn ze niet discriminerend. Duidelijke communicatie daarover is van groot belang. Ook ligt er een taak voor de overheid om via wetgeving te borgen dat toezichthouders goed omgaan met de vele mogelijkheden van datatechnologie.”