Universiteit Leiden

nl en

Ruimte creëren voor waardigheid en empathie: onderzoek naar algoritmen in overheidsbeslissingen

De toeslagenaffaire onthulde dat er nog veel te verbeteren valt aan het gebruik van algoritmen door de overheid. Volgens universitair docent Melanie Fink moeten empathie en waardigheid terugkeren bij bestuursorganen. Zij kreeg een Veni-subsidie om dit te onderzoeken.

Overheidsbeslissingen lijken voor de burger steeds moeilijker te begrijpen en zijn steeds complexer. Oorzaak blijkt de toenemende invloed van kunstmatige intelligentie. Een fascinerende ontwikkeling voor Melanie Fink. Zij pakte de handschoen op en begon te onderzoeken wat er misgaat in de relatie tussen openbaar bestuur en burger. Een complex onderwerp, ontdekte Fink. Het heeft ook internationale gevolgen. Algoritmische beslissingen kunnen namelijk ingrijpend zijn voor Nederlandse burgers, maar ook voor migranten aan de buitengrenzen van de Europese Unie. 

Onbegrijpelijke beslissingen

Fink noemt het voorbeeld van een asielzoeker die te maken krijgt met een afwijzing. De motivatie voor deze beslissing kan op een algoritme zijn gebaseerd. Zo is er bijvoorbeeld berekend dat hij een risico zou kunnen vormen voor de openbare orde. Hij kan deze reden lastig begrijpen en zich hier niet tegen verdedigen. Want niemand die kan hem vertellen op welke manier een computerprogramma welke gegevens combineert. En dat is iets nieuws in de geschiedenis van het openbaar bestuur.  Fink: ‘Het openbaar bestuur gaat ervan uit dat iemand die een besluit ontvangt, de redenen daarachter wel zal begrijpen. Ook als hij het er niet mee eens is. Maar door het gebruik van algoritmen in de procedures nu en in de toekomst, is dat niet langer de realiteit.’

Dehumaniserend effect van automatisering

Gevallen waarin automatisering de complexiteit van een menselijk leven terugbrengt tot een reeks van data, noemt Fink dehumaniserend. Iets wat ook gebeurde bij de algoritmische profileringspraktijken die autoriteiten gebruikten om verdachte kinderopvang- en bijstandsgerechtigden te ontdekken. Fink: ‘Mensen hebben het gevoel dat processen niet eerlijk verlopen. Uiteindelijk ondermijnt dat ook het vertrouwen in bestuurlijke en rechterlijke procedures.’

Samenwerking tussen mens en machine

Fink wil onderzoeken op welke manier de mens weer een rol krijgt bij besluiten, maar met behoud van de voordelen van automatisering. Een algoritme kan immers de kans inschatten of iemand fraude zal plegen, of in aanmerking komt voor asiel of een toeslag. Het bespaart de overheid ook kosten.  ‘Dat werpt vragen op’, zegt Fink. ‘Wat zou de mens kunnen doen en wat laten we over aan de machine? In welke gevallen? Welke mensen, juristen, zijn geschikt voor de taak om invulling te geven aan het aspect van menselijke waardigheid bij overheidsbeslissingen waar een algoritme aan te pas komt?'

Uitbreiden van de motiveringsplicht

In het Europees recht, het specialisme van Fink, is het gebruikelijk om een reden te geven voor beslissingen. Rechtsgeleerden, juridische experts en overheden zelf, zijn deze motiveringsplicht in de loop der tijd uitsluitend gaan zien als een waarborg dat er argumenten zijn om tegen in beroep te gaan. ‘Natuurlijk is dit belangrijk’, zegt Fink. ‘Je kunt je immers niet verweren tegen een beslissing als je de redenen niet kent. Maar de motiveringsplicht kan zoveel meer betekenen. Het kan een brug zijn tussen overheden en de burger en er daarmee voor zorgen dat iemand zich gezien of gehoord voelt als een menselijk persoon.’

De motiveringsplicht vormt de basis voor het onderzoek van Fink rond de vraag hoe overheid en bestuur betere besluiten kunnen nemen. ‘Het project raakt aan toegang tot de rechtspraak, een onderwerp dat mij na aan het hart ligt’, vertelt ze. ‘Dit op een voor mij nieuwe manier. Mensen moeten eerst vertrouwen hebben in de procedures. Een noodzakelijke voorwaarde is dat ze zich behandeld voelen als een mens die begrijpt hoe en waarom de overheid iets heeft besloten.'

Foto: Igor Omilaev via Unsplash

 

Deze website maakt gebruik van cookies.  Meer informatie.