Door onder andere Machine Learning lijken computers steeds meer het werk van toezichthouders uit handen te kunnen nemen, maar zou dat geheel zonder nadelen zijn? Volgens Haiko van der Voort, bestuurskundige en hoofddocent aan de TU Delft, biedt Machine Learning zeker veel kansen voor de toekomst, maar is een samenleving waarin steeds meer door de computers besloten wordt, risicovol.
Als bestuurskundige onderzoekt Van der Voort hoe Machine Learning zijn weerslag krijgt in organisaties en hoe het op een effectieve manier gebruikt kan worden. Als één van de keynotespeakers is hij aanwezig bij het aankomende HCB Seminar ‘Toezicht in Transitie 2022 – Techniek & toezicht: Datagedreven Toezicht’ dat plaatsvindt op 12 oktober.
Profijt uit data
Volgens Van der Voort kunnen alle organisaties profiteren van de grote hoeveelheid data die er is, waaronder ook toezichthouders. Voor publieke organisaties en uitvoeringsorganisaties die beslissingen moeten nemen over veel mensen, kan Machine Learning een uitkomst zijn.
Als voorbeeld noemt Van der Voort de Belastingdienst. ‘Doordat de Belastingdienst de mensen niet allemaal kennen, moeten ze op een manier veronderstellingen maken’, legt hij uit. Waar onder andere veronderstellingen over gemaakt moeten worden, zijn of de mensen zich aan de wet houden en of ze recht hebben op een regeling. ‘Vervolgens gaan ze dat uitvragen met formulieren, maar ze moeten ook controleren of daar geen fraude mee gepleegd wordt. Daarvoor is Machine Learning interessant.’ De technologie geeft een indicatie over welke mensen de moeite waard zijn om extra onderzoek naar te doen.
Risico’s
Maar er zijn ook risico’s. ‘Wat mij betreft kan je veel gebruiken om te komen tot een risicoanalyse, indien de risicoanalyse niet de finale beslissing is’, vertelt Haiko. ‘Misschien kan het wel bij sommige verkeersboetes. Daar wordt aan een aantal voorwaarden voldaan. Ten eerste zijn er duidelijke en geaccepteerde regels. Ten tweede is er geen discussie of er sprake is van een overtreding of niet. Ten derde is de mogelijke overtreder niet kwetsbaar, omdat de hoogte van een verkeersboete veelal relatief laag is. In ieder ander geval kunnen data alleen maar een informatiebron zijn voor risico-analyses door mensen. Dat betekent dat er mensen zijn die resultaten van data-analyses interpreteren.’
Toeslagenaffaire
Overigens is dat veelal ook wettelijk bepaald. Zo ook bij de beruchte Toeslagenaffaire bij de Belastingdienst. ‘Bij de Belastingdienst waren de mogelijke overtreders kwetsbare mensen, want zij waren afhankelijk van de toeslag en terugvorderen zou voor hen rampzalig zijn. Bij de Belastingdienst waren er ook keurig mensen die zelf mochten beslissen op basis van de door de computer geleverde data-analyses. Daar komt wel een volgende eis bij kijken: zij moeten in staat worden gebracht om de resultaten van de data-analyses goed te interpreteren. Dat bleek bij de Belastingdienst om allerlei redenen niet altijd gebeurt’, zegt Van der Voort.
‘Zorg ervoor dat de computer niet besluit’
Ook bij andere processen en bij andere toezichthouders moeten data-analyses door mensen worden geïnterpreteerd. Hier blijkt het belang van een goede organisatie. Om data-analyses goed te kunnen interpreteren, moeten mensen weten hoe het algoritme, ofwel de computer, werkt. Maar vaak is het ook nodig dat mensen weten waarom onder toezicht staanden regels overtreden. De computer kan ook niet begrijpen wat een persoon ertoe drijft om een regel of wet te overtreden. Organisaties kunnen dus op een verantwoordelijke manier omgaan met Machine Learning door naast de gegeven indicatie nog verder onderzoek te blijven doen. Daarbij zullen data-analisten en inspecteurs goed met elkaar samen moeten kunnen werken. ‘Zorg ervoor dat de computer niet besluit’, aldus Van der Voort.
Meer leren over de ontwikkeling van Machine Learning? Kom naar het aankomende HCB Seminar ‘Toezicht in Transitie 2022 – Techniek & toezicht: Datagedreven Toezicht’ op 12 oktober in Den Haag.