Ga naar de inhoud

Toezicht op basis van algoritmen: (hoe) werkt dat?

Zelflerende algoritmen zijn overal en hebben veel impact op de samenleving. Slimme systemen bieden kansen, maar zorgen ook voor bezorgdheid. Vooral omdat de toepassing van die algoritmen soms misgaat, wat dan groot in het nieuws verschijnt. Niet zelden staat de werkwijze van de toezichthouder dan ter discussie. Hoe kunnen toezichthouders deze relatief nieuwe techniek op de juiste manier implementeren in hun praktijk? De komende maanden beschrijven we vanuit verschillende invalshoeken de rol van algoritmen in toezicht. Dit artikel is de eerste in die reeks.

Formule op een computerscherm

Veel toezichthouders onderschatten wat er komt kijken bij de implementatie van Artificial Intelligence (AI). Dat merken onderzoekers van ECP|Platform voor InformatieSamenleving op. AI brengt bij toezichthouders namelijk veranderingen teweeg tot diep in de organisatie. Het is meer dan alleen het toepassen van een nieuwe technologie. AI-gebruik betekent vaak dat toezichthouders opnieuw moeten nadenken over bijvoorbeeld doelstellingen van hun organisatie en de relatie met ondertoezichtstaanden.

Wat is een algoritme ook alweer?

Een algoritme is een wiskundige formule die je kunt loslaten op grote hoeveelheden data. Zo’n algoritme kan die data langslopen op patronen en vervolgens voorspellingen doen. Het kan bijvoorbeeld overtreders vinden of risicovolle situaties. Steeds vaker zijn de uitkomsten van algoritmen de basis voor beleid. Bij gemeenten en organisaties, maar ook bij toezichthouders.

Een werkgroep van ECP, met experts uit de wetenschap, het bedrijfsleven en van de overheid, publiceerde afgelopen jaar een essay over toezicht met algoritmen. Hun doel: bijdragen aan een ethische en verantwoorde inbedding en borging van AI binnen toezicht, en zo toezichthouders een helpende hand bieden. Dit artikel bevat hun belangrijkste aanbevelingen en conclusies.

Leren over AI

Om AI verantwoord in te kunnen bedden in toezicht, is allereerst kennis over de technologie noodzakelijk. Hoe werkt het? Wat kun je ermee en op wat voor manier kan het misgaan? Voordat je ermee aan de slag kunt, moet je weten hoe het werkt en er ervaring mee opdoen. Vertrouwen in de technologie is noodzakelijk, maar blínd vertrouwen een groot gevaar. Ook een innovatieve techniek als AI heeft zwakke punten. Die moeten toezichthouders (her)kennen als ze het willen inzetten.

“Vertrouwen in de technologie is noodzakelijk, maar blínd vertrouwen een groot gevaar.”

De onderzoekers geven aan dat toezichthouders open moeten staan voor aanpassingen binnen de eigen organisatie. Want dat er dingen veranderen bij de implementatie van AI is zeker. Er zijn nieuwe rollen en functies nodig, besluitvormingsprocessen moeten regelmatig op de schop en organisatiestructuren wijzigen. Als een toezichthouder daar binnen de organisatie geen ruimte voor biedt, is de kans groot dat AI-gebruik niet werkt.

Ethisch verantwoord

AI kan onbedoelde en onverwachte gevolgen hebben. ‘De overheid gebruikt op grote schaal voorspellende algoritmes’, schreef de NOS vorig jaar. Het doel van de overheid: onder meer fraude en criminaliteit opsporen. Het bijkomende gevolg: doordat algoritmes zich baseren op specifieke kenmerken van personen, zoals hun sociaaleconomische achtergrond, ligt discriminatie op de loer. Daarom is het goed als toezichthoudende instanties oog hebben voor de ethische en juridische borging van de nieuwe technologie, stellen de onderzoekers.

“Doordat algoritmes zich baseren op specifieke kenmerken van personen, zoals hun sociaaleconomische achtergrond, ligt discriminatie op de loer.”

Toezichthouders hoeven voorlopig nog niet op wetgeving te rekenen als het gaat om de ethische grenzen van AI. Daarvoor gaat de digitalisering te snel. Die is niet bij te houden met wettelijke kaders. De overheid kan taken als toezicht, dienstverlening en bescherming dankzij ontwikkelingen op ICT-gebied met elkaar verweven, maar de huidige regelgeving voor dit proces is niet toereikend. De onderzoekers vinden dat toezichthouders, in plaats van wachten op wetgeving in zo’n situatie, zelf verantwoordelijkheid moeten nemen, door in gesprek te gaan met ondertoezichtstaande organisaties. Waar liggen de ethische en juridische grenzen en hoe kan de bestaande wet- en regelgeving worden toegepast in nieuwe situaties? Zo kom je er samen achter wat er daadwerkelijk mág en wat wenselijk is.

“Over tien jaar zijn er weer andere dingen mogelijk met AI. De techniek ontwikkelt zich door en verandert.”

Alle aandachtspunten vind je in het volledige essay van ECP |Platform voor de InformatieSamenleving. Hierin zijn ook drie casussen opgenomen waarin de aandachtspunten in de praktijk worden gebracht.
Alle aandachtspunten vind je in het volledige essay van ECP |Platform voor de InformatieSamenleving. Hierin zijn ook drie casussen opgenomen waarin de aandachtspunten in de praktijk worden gebracht.

Vinger aan de pols

Toezichthouders moeten zich realiseren dat het implementatie- en uitvoeringsproces een zoektocht is. Wat werkt? Maar ook: is deze aanpak toekomstbestendig? En hoe kunnen we een eventuele fout herstellen? ‘Vinger aan de pols houden’, noemen de onderzoekers het. De slimme systemen van nu worden in rap tempo ingehaald door volgende vernieuwingsslagen. Over tien jaar zijn er weer andere dingen mogelijk met AI. De techniek ontwikkelt zich door en verandert.

Wat, hoe, waarom?

Tot slot raden de onderzoekers toezichthouders aan om maatschappelijk draagvlak te creëren voor de toepassing van AI. Van toezichthouders mag verwacht worden dat ze – vooraf – goed bedenken waarom en hoe ze AI willen inzetten. En transparantie over het gebruik ervan is eveneens essentieel, zoals het nieuwsbericht van de NOS laat zien. Mitsen en maren genoeg dus, maar rekening houdend met de ethische en organisatorische aandachtspunten van de ECP-onderzoekers kunnen zelflerende algoritmen worden toegepast om het toezichtsvak verder te ontwikkelen.