
Het gebruik van algoritmes biedt kansen voor het werk van toezichthouders. Een groep experts publiceerde onlangs onder de vlag van ECP, een Platform voor de InformatieSamenleving, een essay Toezicht met algoritmen. Daarin is een praktijkanalyse opgenomen die toezichthouders helpt artificial intelligence verantwoord in te bedden in hun beroepspraktijk en daarbij nauwlettend de vinger aan de pols te houden.
De afgelopen jaren heeft AI volgens die expertgroep een vlucht genomen door “de combinatie van snelle technische ontwikkelingen en de beschikbaarheid van grote hoeveelheden digitale data. AI biedt onder andere nieuwe kansen voor het uitvoeren van toezicht. Daartegenover staat dat de inzet van technologie die meer doet dan het optimaliseren van goed beschreven processen, onbedoelde en onverwachte gevolgen kan hebben. Dat is het geval bij AI-technologie.”
Download hier de essay Toezicht met algoritmen.
Werk aan de winkel voor instanties
Het essay Toezicht met algoritmen moet de helpende hand bieden. De auteurs laten zien dat er werk aan de winkel is voor toezichthoudende instanties om AI op een verantwoorde manier te implementeren in de toezichtspraktijk. Daarbij geven zij aan dat het ook nodig is om de vinger aan de pols te houden, omdat de eigen organisatie en werkprocessen gaandeweg zullen veranderen. “Ook worden bij de implementatie van nieuwe technologie fouten gemaakt die hersteld moeten worden en zal de integriteit van data en besluiten bewaakt moeten worden, om ongewenste neveneffecten te voorkomen.”
Concrete handvatten aan de hand van casussen
Aan de hand van drie casussen geven de AI-experts concrete handvatten. Achtereenvolgens worden het opsporen en aanpakken van witwassen, het toezicht in het verkeersdomein aan de hand van toekennen en afhandelen van boetes, en de verhouding tussen burger en overheid door de experts praktisch uitgewerkt.
Instanties onderschatten implementatie
De expertgroep signaleert dat toezichthoudende instanties de implementatie van AI-systemen onderschatten. Zij stelt dat implementatie veel meer vergt dan alleen het ‘inpassen’ van een nieuwe technologie in de organisatie. Zo brengt AI bijvoorbeeld veranderingen met zich mee in de organisatie en in de primaire processen. Het kennis hebben van wat AI-technologie kan en doet, en wat de sterke en zwakke kanten zijn is onmisbaar voor een verantwoorde toepassing en implementatie van AI-systemen, aldus de experts. “Dat geldt ook voor het delen van ervaringen en het voeren van gesprekken over achterliggende ethische en juridische waarden tussen toezichthoudende instanties onderling”, aldus Daniël Frijters, programmamanager bij ECP.
Niet voldoende kaders
Probleem is alleen dat wet- en regelgeving rondom de inzet van nieuwe technologie als AI niet voldoende kaders biedt. Dat brengt onzekerheid met zich mee voor de partij die AI wil gaan inzetten, maar ook voor de toezichthouder zelf. In zo’n situatie stellen de experts voor om eenzelfde aanpak te kiezen als de Belastingdienst doet met de compliance-benadering. “In dergelijke situaties is het belangrijk om gezamenlijk verkennend te zoeken naar wat techniek wel en niet mag en wat wenselijk is. Samen met bedrijven ontdekt de toezichthouder waar de ethische en juridische grenzen liggen en hoe wet- en regelgeving kan worden toegepast in nieuwe en specifieke situaties.”
Blind geloof in AI niet zaligmakend
De experts schrijven dat een blind geloof in AI-technologie niet zaligmakend is. Aan de hand van het praktijkvoorbeeld Opsporen en aanpakken van witwassen laten zij zien dat burgers onevenredig getroffen kunnen worden. Zo zet de roep van toezichthouders om steeds meer informatiebronnen te mogen koppelen de privacy van burgers onder druk. Ook blijkt een blind geloof te leiden tot automatische besluiten die niet te herleiden en moeilijk aan te passen zijn, zoals zichtbaar wordt in de casus Toezicht in het verkeersdomein. “Vaak wordt met de beste bedoelingen gestreefd naar efficiency. De AI-experts laten zien dat dit ook zijn keerzijden heeft.”
Maatschappelijk draagvlak nodig
De rol van de toezichthouder ten opzichte van de partij waarop toezicht wordt uitgeoefend, verandert. Vaak gebeurt dat onderhuids, onbewust en onverwacht. Een voorbeeld van de Kafkabrigade laat pijnlijk duidelijk zien wat dat betekent voor de burger. Frijters: “De toepassing van AI biedt veel kansen voor toezicht, maar daarvoor is maatschappelijk draagvlak nodig. Dat vraagt om transparantie en een goede doordenking van het toepassing van AI. Er is dan ook werk aan de winkel voor toezichthouders. Ons essay helpt hen daarbij.”
Lees ook
DNB komt met richtlijnen voor gebruik kunstmatige intelligentie
CFO Marcel Smits van Cargill: Kunstmatige intelligentie versnelt onze groei