Toezine

Wekelijkse verdieping voor professionals in toezicht, handhaving en inspectie

Bezig met laden...
“Toezicht op algoritmen kán, als we dezelfde taal spreken”

“Toezicht op algoritmen kán, als we dezelfde taal spreken”

Algoritmen staan tot toezichthouders als pubers tot hun wanhopige ouders. De laatsten weten vaak niet wat de eersten uitspoken. Algoritmen zijn steeds vaker de basis voor beslissingen in de samenleving, terwijl hun werking steeds minder transparant is. Hoe houdt een toezichthouder wél grip op algoritmen? Door met alle partijen die zich ermee bezighouden, van bouwer tot gebruiker, een gemeenschappelijke taal te ontwikkelen. Daarvoor pleit datawetenschapper en filosoof Egge van der Poel.

Egge van der Poel

Een algoritme is een wiskundige formule die je kunt loslaten op grote hoeveelheden data. Zo’n algoritme kan die data langslopen op patronen en vervolgens voorspellingen doen. Het kan bijvoorbeeld overtreders vinden, of risicovolle situaties. Steeds vaker zijn de uitkomsten van algoritmen de basis voor beleid. Bij gemeenten en organisaties, maar ook bij toezichthouders zelf. De ontwikkelingen rondom algoritmen gaan zo snel, dat wetgeving die de kaders moet bieden voor toezicht op die algoritmen ze niet kan bijbenen. Voor toezichthouders is het moeilijk om toezicht te organiseren op het gebruik van algoritmen door overheden en bedrijven. Ook op ethisch gebied is de uitdaging groot, terwijl het op dat front flink mis kan gaan. Zo kan een algoritme bijvoorbeeld discrimineren of sociale verschillen juist vergroten.
“Met een gemeenschappelijke taal bedoel ik dat we begrijpen wat algoritmen precies kunnen en dat we het erover eens zijn waar de morele grenzen liggen.”

Dezelfde taal spreken

De ethische kant van algoritmen speelt ook in de zorg, waarin Egge van der Poel als datawetenschapper werkt. “Als een algoritme bepaalde mensen toegang tot zorg zou ontzeggen, dan moeten we daar iets van vinden. Stel dat volgens het algoritme de kans op succes van een behandeling te laag is. Als dit gebeurt op basis van groepsdata die niet representatief zijn voor de betreffende individuele patiënt, kan dit een onterechte ontzegging van zorg zijn. Maar om er uitspraken over te doen, moeten we een gemeenschappelijke taal spreken. Daar bedoel ik mee dat we moeten begrijpen wat algoritmen precies kunnen”, stelt Van der Poel. “Denk bijvoorbeeld aan software die sollicitatiebrieven beoordeelt, of ingewikkelde berekeningen die bepalen of iemand een lening krijgt. Daar komt misschien wel geen mens meer aan te pas. We moeten het erover eens zijn waar de morele grenzen liggen. Welke data gebruikt mogen worden en wat we aan algoritmen over mogen laten. Ik denk dat er voor toezichthouders een belangrijke rol ligt om die gemeenschappelijke taal te helpen ontstaan.”

Kennis bijspijkeren

Toezichthouders hebben al contact met alle partijen die een rol spelen bij algoritmen. Van de bouwers van die ingewikkelde berekeningen, tot de burger die beïnvloed wordt door de uitkomsten van algoritmen. “Maar om die partijen bij elkaar te kunnen brengen, moeten toezichthouders in alle sectoren ten eerste zelf kunnen meepraten. Door experts in dienst te nemen bijvoorbeeld”, vindt Van der Poel. “Gespecialiseerde IT-auditors kunnen algoritmen zowel technisch als ethisch beoordelen. Ook moeten toezichthouders zorgen dat ze zich inhoudelijk in de discussie kunnen mengen. Daar is bijscholing voor nodig. Organiseer masterclasses voor het managementteam. Breng uitvoerende mensen in contact met datawetenschappers, zodat ze leren hoe algoritmen precies werken. Zo breng je ook intern de gesprekken op gang.”

Kracht van het collectief

Maar de discussie die Van der Poel vooral nastreeft, moet zich juist in het veld afspelen. “Ik geloof in de kracht van het collectief. Ik denk dat alle partijen die met algoritmen te maken hebben met elkaar in discussie moeten blijven. Over wat we aan algoritmen over mogen laten, wat voor soort data we daarvoor gebruiken en welke niet. Welke consequenties we aan de uitkomsten mogen verbinden. Én wat we doen als het toch misgaat. Toezichthouders kunnen die partijen samenbrengen én deelnemen aan deze discussie”, aldus Van der Poel. “Samen kunnen ze ethische kaders opstellen voor het gebruik van algoritmen. Voorkomen is beter dan genezen.”
“Ik geloof in de kracht van het collectief. Ik denk dat alle partijen die met algoritmen te maken hebben met elkaar in discussie moeten blijven.”
Aan welke partijen denkt Van der Poel dan precies? “Wat mij betreft begint dat bij degenen die algoritmen maken: de datawetenschappers. Zij kunnen hulp krijgen van IT-auditors om scherper naar de eigen beslissingen te kijken. En toekomstige generaties moeten dit ethische gedrag via hun studies en opleidingen ingebakken krijgen.” Andere partijen die een plek aan tafel verdienen zijn volgens Van der Poel degenen die data genereren en verzamelen. “Evenals de mensen die beslissingen nemen aan de hand van de informatie uit algoritmen. En tot slot natuurlijk degenen op wie de uitkomsten van toepassing zijn. In de zorg heb ik het dan over patiënten, maar in heel veel gevallen gaat het om de burger in het algemeen.”

Afspraken maken

Toezicht op algoritmen grotendeels aan de markt overlaten, zoals Van der Poel hier voorstelt, is onder toezichthouders een bekende aanpak. In diverse vormen van zelfregulering en horizontaal toezicht helpen gecontroleerde partijen al bij het toezicht. Maar dat alleen is niet genoeg, vindt Van der Poel: “Je kunt van tevoren afspraken maken en daar sancties aan verbinden. Bijvoorbeeld als iemand nalatig is geweest, door onvolledige data te gebruiken of niet het juiste algoritme toe te passen. Al wil je die controle beperkt houden, omdat je anders het creatieve proces van het maken van een algoritme vertraagt.” Een beetje als de ouders die hun puberzoon nog steeds huisarrest kunnen geven, maar dat eigenlijk niet meer doen omdat ze goede afspraken met hem hebben gemaakt.