De maatschappelijke onrust over algoritmes bij de overheid blijft groeien. De Algemene Rekenkamer ontwikkelde daarom een toetsingskader. Dat moet helpen om algoritmes transparant en risico’s bespreekbaar te maken. “We krijgen uit de hele wereld de vraag om het kader te presenteren.”

Net als het bedrijfsleven zet de overheid steeds vaker algoritmes in. Om grote hoeveelheden informatie te verwerken, handelingen te automatiseren en voorspellingen te doen. “Nu zijn dat vooral simpele lerende algoritmes, zoals het automatisch versturen van een ontvangstbevestiging of een eerste selectie voor uitkeringen. Deze algoritmes hebben over het algemeen een beperkt effect op de burger, omdat de handeling die hierop volgt met name wordt bepaald door de betreffende ambtenaar”, vertelt Miranda Pirkovski, projectleider algoritmes en waarnemend onderzoeksdirecteur bij de Algemene Rekenkamer. “Maar de overheid zet soms ook complexere algoritmes in, al dan niet in combinatie met kunstmatige intelligentie. Die kunnen een groot effect hebben op de levens van burgers. De inzet van gezichtsherkenning voor toegangscontrole op luchthaven Schiphol beïnvloedt bijvoorbeeld het recht op privacy van mensen.”
Te weinig gericht op de burger

Toch kunnen ook simpele algoritmes kunnen groepen burgers duperen. Een algoritme dat de hoogte en duur van een uitkering bepaalt bijvoorbeeld, kan geen rekening houden met specifieke omstandigheden en daardoor geen maatwerk leveren. In de Tweede Kamer en in de samenleving leven daarom grote zorgen over de manier waarop de overheid algoritmes inzet. Ook de Rekenkamer sluit zich hierbij aan. In het rapport Aandacht voor algoritmes zegt de Rekenkamer dat de burger onvoldoende centraal staat bij algoritmes van de overheid en dat betere kwaliteitscontroles nodig zijn. Bij gebrek aan instrumenten bij de overheid om daarop toe te zien besloot de Algemene Rekenkamer zelf een toetsingskader voor algoritmes te ontwikkelen.
De Algemene Rekenkamer en algoritmes, is dat geen verrassende combinatie? Pirkovski vindt van niet. “Wij kijken wat goed gaat bij de overheid en wat beter kan. Daar horen ook algoritmes bij. De overheid zet die steeds meer in en geeft er ook meer geld aan uit. Dan is het belangrijk om te weten of dit verantwoord en doelmatig gebeurt.”
Hoeveel schade kan een algoritme aanrichten?
Met het toetsingskader brengen overheidsorganisaties de risico’s van algoritmes in beeld. “Ze kunnen het doorlopen als ze een algoritme willen ontwikkelen. Aan de hand van het kader beantwoorden ze vragen als: Welke risico’s kunnen zich voordoen? Wat is de mogelijke schade? En hoe groot is de kans daarop?”, vertelt Pirkovski. “Het hangt onder andere af van de herkomst van een algoritme, hoe geavanceerd het is, hoe data worden verzameld, wat de kwaliteit van data is en wat de impact van het algoritme is op de burger. Het toetsingskader is geen checklist, maar een praatstuk. Hierdoor houden organisaties ook ruimte voor hun eigen context.”
“Met het toetsingskader kunnen controleurs en auditors algoritmes eenduidig en uniform beoordelen.”
Niet alleen grote organisaties die een algoritme ontwikkelen hebben er baat bij. “Kleinere kunnen het ingevulde toetsingskader als input voor kwaliteitseisen meenemen naar een commerciële ontwikkelaar. Controleurs en auditors kunnen het ingevulde kader gebruiken om de algoritmes eenduidig en uniform te beoordelen.”
Iedereen wilde meedoen
De inzet van algoritmes bij de rijksorganisaties biedt niet alleen risico’s, maar ook veel kansen, stelt Pirkovski. “Algoritmes ondersteunen en verbeteren de bedrijfsvoerings- en dienstverleningsprocessen vaak. Ze zorgen er bijvoorbeeld voor dat mensen en middelen gericht worden ingezet bij controles of inspecties. Daarnaast bieden algoritmes ook kansen om besluitvormingsprocessen transparanter en gemakkelijker controleerbaar te maken. Met de inzet van algoritmes haal je, voor een deel van het proces, de menselijke handeling eruit. Dat kan fouten door ambtenaren voorkomen en maakt inzichtelijk welke afwegingen zijn gemaakt die normaal in ‘hoofden’ zit. Omdat de aanpak eenduidig is, is de controle eenvoudiger.”
“Het toetsingskader is geen checklist, maar een praatstuk.”
Het toetsingskader kwam in samenwerking met veel partijen tot stand. Daardoor had het een langere aanlooptijd dan verwacht. Dat was aanvankelijk lastig, maar wel waardevol. Pirkovski: “We merkten al snel dat mensen bij departementen technologieën met algoritmes verwarden en ook soorten algoritmes door elkaar haalden. Daarom hebben we een sessie georganiseerd om alle neuzen dezelfde kant op te krijgen. We nodigden hiervoor ook het bedrijfsleven, beroepsorganisaties als NOREA voor IT auditors en de academische wereld uit. Iedereen wilde meedoen, was ermee bezig en zat met dezelfde vragen. We hadden het moment echt mee.”
Bij de sessie kwamen diverse thema’s aan bod, van ethische vraagstukken tot de noodzaak van transparantie. Als algoritmes bijvoorbeeld vooroordelen bevatten, kan dat leiden tot discriminatie. Daarnaast kan de overheid als ze externe leveranciers inschakelt, hiervan afhankelijk worden voor de verwerking van (bijzondere) persoonsgegevens. “De thema’s hebben we vervolgens samengevoegd tot het toetsingskader”, zegt Pirkovski.
Wereldberoemd
Voor een brede scope betrok de Algemene Rekenkamer ook andere Hoge Colleges van Staat. De Raad van State keek mee op het thema beleid, de Nationale ombudsman op het gebied van klachten. “Alles heeft invloed op elkaar”, zegt Pirkovski. “Burgers moeten het gebruik en de werking van een algoritme kunnen begrijpen én weten waar ze terecht kunnen met vragen of bezwaren. Organisaties die een algoritme willen inzetten, raad ik eveneens een brede blik aan. Zorg zowel voor beleidsmakers als voor ontwikkelaars aan tafel en toets het gebruik ook bij groepen burgers die (indirect) te maken hebben met het algoritme.“
In drie maanden tijd werd het toetsingskader wereldberoemd. “We krijgen van over de hele wereld de vraag om een presentatie te houden”, zegt Pirkovski. “In Nederland van uitvoeringsorganisaties, inspecties, de Inspectieraad en ministeries. Maar ook rekenkamers uit het buitenland benaderen ons. Waaronder Chili en India – toch niet de kleinste. Opnieuw zien we: iedereen is met die risico’s bezig en heeft het gevoel dat algoritmes een soort ‘black box’ zijn. Maar dat hoeft dus niet, de doos kan open!”
Geen stempel
Een van de eerste organisaties waarop het toetsingskader is losgelaten, is de Onderwijsinspectie. Zij zetten algoritmes in voor het Onderwijsresultatenmodel van het primair onderwijs. De inspectie maakte de inzet van deze algoritmes transparant met een toelichting en door de keuzes integraal te delen op de website. “Daarmee wordt de impact van het algoritme goed duidelijk voor scholen en ouders.” Pirkovski merkt wel dat er steeds meer behoefte is aan een certificaat of keurmerk voor een algoritme. “Organisaties willen graag het stempel ‘goedgekeurd’ op hun algoritme. Maar dat geven we niet. Daar is het kader niet voor bedoeld en het is ook niet aan de Algemene Rekenkamer om een certificaat te ontwikkelen.”
Klaar voor de toekomst
Het toetsingskader is inmiddels overdragen aan het ministerie van Binnenlandse Zaken (BZK). “Daar hoort het thuis, omdat BZK het IT-beheer voor de rijksoverheid coördineert”, zegt Pirkovski. “Demissionair staatssecretaris Raymond Knops is er blij mee. Hij wil het binnenkort ook zelf gaan inzetten om de risico’s van kunstmatige intelligentie voor mensenrechten in kaart te brengen.”
“De vertraging in het begin was even frustrerend, maar is uiteindelijk goed geweest.”
De projectleider kijkt met een goed gevoel terug op de afgelopen periode. “De vertraging in het begin was even frustrerend, maar is uiteindelijk goed geweest. Juist die sessie heeft tot verbinding geleid. Het toetsingskader is een goede stap voor de overheid. Zeker met het oog op complexere algoritmes, waar de overheid in de toekomst ongetwijfeld mee zal willen werken.”