Toepassingen met artificial intelligence (AI) nemen de komende vijf jaar een vlucht. Bij toezichthouders moet veel veranderen willen ze die ontwikkelingen bijbenen. Wat precies? Huub Janssen verdiept zich erin als kwartiermaker AI voor Agentschap Telecom (AT) en als voorzitter van de werkgroep ‘Toezicht op AI’. Hij schetst vijf uitdagingen en legt uit wat toezichthouders moeten doen om er wél klaar voor te zijn.

Een reis boeken, social media gebruiken of in een auto rijden. Het gebeurt nu al bijna altijd met hulp van AI. Zelflerende algoritmes helpen consumenten namelijk al om snel de goedkoopste vlucht en de beste accommodatie te vinden. Ze zorgen ook dat zij de meest relevante content op social media voorbij zien komen en veel auto’s helpen chauffeurs binnen de lijnen te blijven rijden of op gepaste afstand van hun voorganger te blijven.
Geef het nog vijf jaar en bijna niks in onze samenleving draait meer zonder de hulp van AI voorspelt Huub Janssen. “Het is belangrijk dat toezichthouders zich dit realiseren. Binnen vrijwel elke sector neemt het gebruik van AI exponentieel toe, inclusief de bijbehorende risico’s. Je moet hierop inspelen en proberen om de invloed van AI op jouw sector te voorspellen.”
In de glazen bol
Heeft AI dan echt zoveel effect op toezicht? Ja, ziet Janssen bij zijn opdrachtgever Agentschap Telecom. “Een goed voorbeeld is de energiemarkt. Door een recent – nog niet gepubliceerd – onderzoek weten we dat er steeds meer verschillende aanbieders toetreden tot de energiemarkt. Elektriciteit komt uit steeds meer bronnen: van zonnecellen en windparken tot elektrische auto’s die ook weer stroom opwekken. We verwachten dat er veel digitale platforms ontstaan die met hulp van AI in de handel van deze energie springen. AI helpt hen dan bijvoorbeeld in te schatten wanneer het beste moment is om energie te verhandelen. AT houdt straks toezicht op die platforms. Zij zullen namelijk invloed hebben op de netstabiliteit – de spanning op het elektriciteitsnetwerk. En die stabiliteit waarborgen valt onder de verantwoordelijkheid van AT.”

Ontwikkelingen zoals in de energiemarkt zullen de komende jaren in veel meer sectoren gaan spelen. Janssen: “Natuurlijk kun je niet alles voorspellen, maar sommige AI-trends zijn al wel duidelijk zichtbaar.” Janssen verwacht dat alle toezichthouders de komende jaren te maken krijgen met de volgende vijf uitdagingen:
1. Schuivende toepassingen
“Stel: een arts die comapatiënten behandelt, wil bij hen chips gebruiken die eigenlijk gemaakt zijn om de gezondheid van koeien te monitoren. Een heftig – en fictief – voorbeeld, maar het geeft goed weer voor welke dilemma’s je als toezichthouder kunt komen te staan. Wie moet er iets van vinden als AI in een andere context wordt gebruikt dan waarvoor hij ooit ontwikkeld is? En hoe organiseer je dat toezicht? Daar moet je van tevoren over nadenken.”
“Er zijn veel verschillende partijen betrokken bij de ontwikkeling en implementatie van AI. Daar moet je als toezichthouder goed zicht en grip op hebben.”
2. Toezicht op de hele keten
“Er zijn veel verschillende partijen betrokken bij de ontwikkeling en implementatie van AI. Daar moet je als toezichthouder goed zicht en grip op hebben. Een voorbeeld uit de telecomsector: een beheerder van zendmasten koopt een AI-toepassing die helpt de zendmasten efficiënt in te zetten. Het bedrijf dat die AI levert, heeft weer een basispakket ingekocht bij een grote verkoper als Microsoft of Google. Het is dus niet genoeg om alleen aan de toeleverancier te vragen hoe hij de AI heeft gebouwd. Je wilt in zo’n complex digitaal ecosysteem ook zicht hebben op de leveranciers eerder in de keten.”
3. Nieuwe monopolies
“Door AI kunnen er nieuwe, onwenselijke monopolies ontstaan. Laat ik als voorbeeld weer de telecomsector nemen. In Nederland hebben we heel bewust meerdere aparte telecomstructuren, KPN, Vodafone en T-Mobile. Maar die kunnen wel allemaal afhankelijk worden van dezelfde AI-leverancier. Dat is in de wet nog niet verboden. Een oplossing zou kunnen zijn dat toezichthouders in dit soort situaties extra voorwaarden stellen om monopolies tegen te gaan.”
“Monopolievorming is ook in andere sectoren denkbaar. AI wordt beter naarmate er meer data in zit. Een grote AI-leverancier met veel data wordt dus vaak de betere leverancier en zal sneller aanbestedingen winnen. Vanaf 2023 wordt AT de Rijksinspectie Digitale Infrastructuur. Vanuit die rol willen we ook extra aandacht geven aan dreigende monopolies door ze tijdig te signaleren en met regelgeving monopolievorming van tevoren voorkomen. In de meeste sectoren is dit overigens nog niet aan de gang, maar dat zal de komende jaren wel gebeuren.”
4. Door alle domeinen heen
“De meeste AI wordt in verschillende sectoren ingezet en valt daardoor vaak onder meerdere toezichthouders. Neem een AI-toepassing die de werking van de cloud – de online opslag van informatie – optimaliseert. Die toepassing kan zowel door bijvoorbeeld gemeenten, de gezondheidszorg als het onderwijs worden gebruikt. Wordt die AI gemanipuleerd, dan raakt dat meerdere toezichthouders. Dan wil je dat zij elkaars taal spreken en met vergelijkbare normen een AI beoordelen en zo nodig in afstemming oordelen.”
“De tijd dat een product eenmalig tot de markt werd toegelaten is met AI voorbij. Bij elke software-update kan een product totaal veranderen.”
5. Meer continu toezicht
“De tijd dat een product eenmalig tot de markt werd toegelaten is met AI voorbij. Bij elke software-update kan een product dusdanig veranderen dat de toezichthouder het opnieuw moet keuren. Maar hoe richt je dat continue toezicht in? In welk stadium moet de leverancier verantwoording afleggen, en hoe? En wanneer valt iets onder continu toezicht, en wanneer niet? Dat zijn vragen die elke toezichthouder zichzelf moet stellen.”
Kom bij de werkgroep
“Je kunt als toezichthouder het beste met deze uitdagingen omgaan door samen te werken”, stelt Janssen. “Dat gebeurt al in onze werkgroep Toezicht op AI, waarbij veel verschillende toezichthouders en beleidsmakers zijn aangesloten. Daarnaast blijft de focus op risico’s in mijn ogen de enige manier om toezicht op AI behapbaar te houden. AI en de data die erbij komen kijken zijn gewoonweg te omvangrijk en veranderlijk om standaarden en normen te kunnen stellen.”
“De risico’s van AI kun je niet meer voorkomen, maar wel managen. Aan de andere kant kan AI ook juist helpen om risico’s te verminderen.”
Verander je mindset
“Het toezicht op AI vraagt dus om een andere mindset. We kunnen risico’s niet langer voorkomen, maar wel managen. Dat klinkt misschien eng, maar aan de andere kant kan AI in de praktijk juist ook helpen om risico’s te verminderen. Een mooi voorbeeld daarvan is de auto die recent 25 kilometer zonder ongelukken over de snelweg reed terwijl de bestuurder bewusteloos was. Dankzij de cruise control en lane assistance – en uiteindelijk de hulp van de politie – kwam de bestuurder er ongedeerd vanaf.”
Bouw op de AI-Act
Tot slot worden toezichthouders ook geholpen door de Europese AI Act die mogelijk vanaf 2024 in werking treedt. “Die wet maakt het mogelijk om sommige AI-toepassingen te verbieden of als hoogrisico aan te duiden. En onder de wet kun je transparantie rondom technieken als deepfake en chatbots eisen, zodat de consument weet dat hij met AI te maken heeft. Dankzij de wet wordt het bijvoorbeeld ook makkelijker om toezicht op de keten van AI-ontwikkeling te houden, omdat de wet hier ook eisen aan stelt.”