Data zijn volgens de onderzoekers bij de Utrecht Data School veel meer dan alleen maar kille techniek. De Ethische Data Assistent geeft toezichthouders binnen drie uur inzicht in de ethische keuzes die zijn gemaakt. “Interessant voor dataprojecten die toezichthouders zelf ontwikkelen én voor die van ondertoezichtstaanden.”

Wat is de ethische data assistent?
“DEDA is een impact-assessment-tool voor dataprojecten. We zijn die in 2016 begonnen te ontwikkelen – in samenwerking met Gemeente Utrecht. Na een onderzoek van ongeveer anderhalf jaar namen we DEDA in 2017 in gebruik. De tool is een methode om teams die aan dataprojecten werken te laten praten over alle mogelijke ethische aspecten die bij hun projecten komen kijken. Het laat zien vanuit welke waarden je een dataproject opzet en welke acties nodig zijn om die waarden terug te laten komen in het dataproject.
“DEDA verhoogt het ethisch bewustzijn van mensen die met dataprojecten bezig zijn.”
Vervolgens kan dat team bepalen of het ethisch verantwoord is om met een dataproject door te gaan. Of om te bekijken welke aanpassingen nodig zijn om het verantwoord te maken. DEDA verhoogt kortom het ethisch bewustzijn van mensen die met dataprojecten bezig zijn. Bovendien helpt ze de keuzes te documenteren die zij maken; een eis vanuit de privacywet AVG.”
Maar wacht even – data, dat zijn toch gewoon cijfers en gegevens? Hoezo komt daar ethiek bij kijken?
“Wij zien data als een sociaal-cultureel artefact (iets dat door mensen is gemaakt – red.). Net als de algoritmes die erop losgelaten worden. Je kunt technologie niet als neutraal beschouwen. Bij de ontwikkeling van een algoritme worden immers allerlei keuzes gemaakt die te maken hebben met de sociaal-culturele context. En dat geldt ook voor de inzet van dat algoritme. Stel: het is ontwikkeld om te voorkomen dat mensen publieke middelen misbruiken. De maatschappelijke waarde achter deze ontwikkeling is natuurlijk helemaal goed. Maar als dat algoritme vervolgens alleen wordt ingezet bij mensen in achterstandswijken, dan gaat er iets mis. ‘Zoeken naar fraudeurs’ wordt dan ‘zoeken naar stereotypen van fraudeurs’ – en dat maakt bepaalde groepen mensen bij voorbaat verdacht. DEDA laat het zien als er zo’n onethische verschuiving optreedt.”
Hoe werkt dat in de praktijk?

“De methode bestaat uit een fysieke en digitale poster met allerlei vragen over algoritmen en data. Die vragen kunnen mensen die werken aan een dataproject samen doorlopen en bediscussiëren. Bij elk antwoord in zo’n workshop kunnen mensen actiepunten noteren. Op die manier ontstaat er binnen een uur of drie een actielijst.
“Veel mensen vinden ethiek maar complex en abstract. Met DEDA proberen we het juist inzichtelijk en begrijpelijk te maken. We laten mensen die aan dataprojecten werken inzien dat zij in dit werk continu morele keuzes maken vaak zonder dat ze dat zelf door hebben. We maken hen ervan bewust dat hun beslissingen gebaseerd zijn op morele waarden. De eerste vraag van DEDA is dan ook: ‘Voor welke waarden – zoals transparantie, betrouwbaarheid of integriteit – staat de organisatie waar jij werkt?’ Dat is het vertrekpunt van de workshop. En het eindpunt, want als afsluiting toetsen de deelnemers in hoeverre hun professionele keuzes aansluiten bij die organisatiewaarden.”

Wie zijn Mirko Tobias Schäfer en Iris Muis?
Mirko Tobias Schäfer geeft leiding aan de Utrecht Data School (UDS). Iris Muis geeft leiding aan het team dataethiek bij UDS. Op dit onderwijs- en onderzoekplatform van Universiteit Utrecht leren studenten kritisch omgaan met data. Ook ontwikkelt de UDS instrumenten voor een betere omgang met digitale gegevens.
Waarom is DEDA interessant voor toezichthouders?
“‘Zij kunnen DEDA op twee manieren toepassen. Ten eerste om hun eigen dataprojecten ethisch verantwoord te maken en houden. En daarnaast om te controleren of organisaties die onder toezicht staan hun algoritmes en data verantwoord gebruiken. Via DEDA kunnen toezichthouders hun eigen stappen nalopen of die van deze organisaties. Zijn er tijdens de ontwikkeling van dataprojecten vragen gesteld over de morele waarden erachter? Denk aan een verzekeraar die op basis van algoritmen de polis van verzekerden berekent. Voor een toezichthouder is het handig een checklist via DEDA te hebben om te zien in hoeverre de verzekeringsmaatschappij daarbij een ethisch perspectief heeft. Zo’n checklist verbetert de inspectie. Overigens hoeven toezichthouders niet per se zelf de ethische impact assessment via DEDA uit te voeren bij organisaties. Zij kunnen die taak ook bij deze partijen neerleggen en de uitkomsten opvragen.”
“Digitalisering is niet alleen een technisch vraagstuk, maar kent ook sociale aspecten. Data en algoritmes bevatten dus waarden en kunnen die aantasten.”
Hoe kunnen jullie toezichthouders hierbij ondersteunen?
“Om te beginnen blijven we hen erop wijzen dat digitalisering niet alleen een technisch vraagstuk is, maar ook sociale aspecten kent; en dat data en algoritmes dus waarden bevatten en kunnen aantasten. Om hierop toe te zien is er een ‘sociaal-cultureel evaluatieproces’ nodig. Dat houdt in dat toezichthouders gezamenlijk handvatten moeten ontwikkelen voor de inspectie van algoritmes. In 2020 probeerden we al hiervoor een groot consortium op te zetten met toezichthouders. Binnenkort gaan we aan de slag met een kleinere groep toezichthouders. ‘Hoe kun je algoritmen op zowel technisch als sociaal-cultureel gebied beter controleren?’ Dat is de onderzoeksvraag waar we ons samen op gaan richten.”
Algoritmen in toezicht
Algoritmen worden voor toezichthouders steeds belangrijker, maar vaak is het onderwerp ook nog een beetje vaag of ver van het bed. ToeZine wijdt er daarom een reeks aan. We beschrijven vanuit verschillende invalshoeken de rol van algoritmen in toezicht. Eerder vertelde Agentschap Telecom hoe zij omgaan met de steeds grotere rol van Artificial Intelligence (AI).
En gaf de NZa zes handvatten voor het toezicht op AI en algoritmen bij bestaande toezichthouders (AI).