Ga naar de inhoud

Elke inspecteur een eigen AI-collega

Hoe zorg je dat inspecteurs met hulp van AI nog eerlijker, effectiever en efficiënter hun werk kunnen doen? Daarover buigen vier rijksinspecties, TNO en twee universiteiten zich in het nieuwe AI4Oversight Lab. Het doel is dat elke inspecteur straks zijn eigen betrouwbare digitale AI-collega heeft.

AI-robot zit naast menselijke collega's werk te doen

Elke week varen er bijna 1000 zeeschepen de Nederlandse havens binnen, maar er zijn niet genoeg inspecteurs om ze allemaal te controleren. Hoe kies je welke schepen je eruit haalt? Het AI4Oversight Lab gaat daar oplossingen voor vinden. “We gebruiken nu eenvoudige selectieprocedures op basis van veldkennis”, vertelt Jasper van Vliet, chief data scientist bij ILT. “Met hulp van AI willen we die selectie verbeteren, zodat we probleemschepen hier effectiever en eerlijker tussenuit kunnen halen.”

Wetenschappers over de vloer

Het AI4Oversight Lab is aangesloten bij het Innovation Center for Artificial Intelligence (ICAI). Dit is een landelijk netwerk voor de ontwikkeling van technologie en talent op AI-gebied. Naast ILT en TNO doen de Nederlandse Arbeidsinspectie, Inspectie van het Onderwijs, de Nederlandse Voedsel- en Warenautoriteit en de universiteiten van Utrecht en Leiden mee.

“In het lab ontwikkelen we bruikbare toepassingen voor inspecteurs.”

De samenwerking tussen de partners is in oktober officieel beklonken. In mei gaan de eerste onderzoekstrajecten van start. Van Vliet: “Het is de bedoeling dat praktijk en wetenschap elkaar versterken en dat we praktisch bruikbare en verantwoorde toepassingen ontwikkelen. Onderzoekers van de aangesloten universiteiten lopen straks een groot deel van hun tijd bij de inspecties rond.”

Krachten bundelen

“Vanuit ons eigen innovatie- en datalab ontwikkelen we al langer AI-toepassingen, vaak samen met universiteiten”, vertelt Van Vliet. “Tot nu toe waren dat losse onderzoeksprojecten, waarbij we elk onderzoek apart uitzetten bij een universiteit. In dit lab werken we structureel samen met de Universiteit Utrecht en de Universiteit Leiden. Daarnaast bundelen we de krachten met andere inspecties die vergelijkbare uitdagingen met AI willen aangaan. Denk aan toezicht op grote groepen met beperkte capaciteit en het verbeteren van de samenwerking tussen het AI-systeem en de inspecteur. En dat alles op een betrouwbare manier die past bij de overheid. In het AI4Oversight Lab trekken we samen op en ontwikkelen we wetenschappelijk ondersteunde methodes om die betrouwbaarheid te versterken.”

“Een digitale collega die je om advies kunt vragen.”

TNO is aangesloten om hun kennis op dit gebied uit te breiden en verder naar de praktijk te brengen. Cor Veenman houdt zich als senior data science specialist bij TNO bezig met de ontwikkeling en toepassing van AI. Ook doet hij onderzoek naar verantwoorde AI aan de Universiteit Leiden. “We doen veel onderzoek naar eerlijke en transparante AI die moet voldoen aan ethische en juridische kaders. We brengen onze expertise in en doen suggesties voor onderzoeksrichtingen binnen het lab. Bovendien profiteren wij weer van de kennis en ervaring van inspecties en denken we mee hoe we de wetenschappelijke onderzoeksresultaten kunnen omzetten in praktische tools.”

Cor Veenman
Cor Veenman

Tekorten compenseren

De AI-systemen die de universiteiten ontwikkelen, moeten naadloos aansluiten op de dagelijkse praktijk van inspecteurs, stelt Van Vliet. “De maatschappij en wet- en regelgeving veranderen continu. AI-oplossingen moeten daarom meebewegen en het liefst die veranderingen zélf detecteren. Er zijn wel basistechnieken voor, maar die zijn nog niet grondig uitgewerkt.” Ook helpen de toepassingen straks bij effectief risicogericht toezicht. “Veel inspecties kampen met een tekort aan inspecteurs. Je wilt hen dus inzetten op plekken waar dat het meest effectief is, niet bij bedrijven waar alles op orde is. Met hulp van AI kun je grote hoeveelheden data analyseren om risicovolle gebieden, bedrijven of instellingen te identificeren. Zo worden inspecties geholpen waar zij inspecteurs het beste kunnen inzetten.”

Digitale collega

Van Vliet ziet de toepassingen die in het lab ontwikkeld worden als een soort digitale collega-inspecteur. Een collega die van jou leert én zelf ook met advies en suggesties komt. “De modellen leren van ervaringskennis die inspecteurs inbrengen en kunnen hen weer wijzen op zaken waar ze tijdens een inspectie nog meer op kunnen letten. Zo beperk je de invloed van vooroordelen en aannames.”

Leren om niet te discrimineren

Oók in de technologie kunnen vooroordelen sluipen, bijvoorbeeld doordat het AI-systeem leert van historische inspectieresultaten. Het is essentieel om dit te herkennen en uiteindelijk te voorkomen. Op die manier kun je situaties zoals bij DUO voorkomen, stelt Veenman. “DUO nam bij de fraudeopsporing met studiebeurzen bewust de migratieachtergrond niet mee, maar selecteerde wel studenten die in de buurt van familie wonen. Het blijkt dat juist mensen met een migratieachtergrond vaker bij familie in de buurt wonen. Die groep kwam daardoor onevenredig vaak naar voren om gecontroleerd te worden. Terwijl er methodes zijn om die ongewenste verbanden te elimineren.”

“Voor eerlijke AI hebben we juist die gevoelige data nodig.”

Het doel is om meer methodes te ontwikkelen die dit soort discriminerende patronen onderdrukken. “Stel: we ontwikkelen een model dat bepaalt welke bedrijven gecontroleerd worden op naleving van regels voor goede arbeidsomstandigheden. Het systeem analyseert daarvoor gegevens van eerdere controles. Zijn bedrijven uit een bepaald land in het verleden vaker gecontroleerd, dan zijn daar ook vaker overtredingen gevonden. Als we de systemen kunnen aanleren om dit patroon los te laten, voorkomen we dat bedrijven uit die landen onevenredig veel worden gecontroleerd.”

Gevoelige snaar

Een van de voorwaarden voor eerlijke AI is dat je de systemen juist toegang moet geven tot gevoelige data, bijvoorbeeld over etniciteit, geslacht of leeftijd. Van Vliet: “Met deze data kun je vooroordelen herkennen en voorkomen. Bijvoorbeeld door te zien dat instellingen met bestuurders met een bepaalde etnische achtergrond vaker gecontroleerd worden. In de huidige aanpak rondom privacy worden deze gegevens zo snel mogelijk onbereikbaar gemaakt, dus we hebben nog aardig wat hobbels te overwinnen. Natuurlijk mogen die gegevens alleen onder strikte privacybescherming meegenomen worden, zodat ze alleen gebruikt worden om vooroordelen te corrigeren. Maar als je écht gaat voor eerlijk gebruik, dan is toegang tot die gevoelige gegevens onvermijdelijk.”

Vliegend van start

De afgelopen maanden hebben de partners de onderzoeksonderwerpen uitgewerkt. Veenman: “In mei starten we met de eerste twee promovendi bij de Universiteit Utrecht en Leiden. Zij gaan onderzoek doen naar het doorlopend leren uit inspectiegegevens in een veranderende omgeving. Ook buigen ze zich over het voorkomen van vooroordelen voor verantwoorde AI-systemen.” Van Vliet vult aan: “De komende maanden gaan we nog vier posities voor promovendi invullen. We kijken er nu al naar uit om de eerste resultaten in de inspectiepraktijk toe te passen.”