Opinie: Geheime algoritmes bij fraudebestrijding schaden de rechtsstaat

De overheid is in Nederland verplicht openbaarheid te betrachten. Het geheim houden van algoritmes die gebruikt worden bij fraudebestrijding is daarmee in strijd.

Recent beantwoordde staatssecretaris Van Ark (Sociale Zaken en Werkgelegenheid) de Kamervraag of het klopte dat een algoritme (zie kader) kan voorspellen welke burgers bijstandsfraude plegen. Ja, dat is inderdaad mogelijk, beaamde Van Ark. Ze liet daarbij de mogelijkheid open dat deze algoritmes door de overheid geheim gehouden mogen worden. Daarmee komt onze rechtsstaat op een hellend vlak.

Openbaar

De poging van Van Ark om de indieners van de Kamervragen gerust te stellen met een opsomming van rechten uit de nieuwe privacyregelgeving schoot te kort. De staatssecretaris liet namelijk het recht achterwege om niet te worden onderworpen aan geautomatiseerde besluitvorming. En daar waar geautomatiseerde besluitvorming plaatsvindt, móet de achterliggende logica openbaar zijn. Dat staat zowel in de oude privacywetgeving als in de nieuwe Algemene Verordening Gegevensbescherming.

Recht

In het tijdperk voor de automatisering was dit logisch. Talloze wetten en regels bepalen in Nederland dat de overheid bij de uitvoering van haar taak ‘openbaarheid moet betrachten’, zoals geformuleerd in de Grondwet. In de Algemene Wet Bestuursrecht staat dat besluiten van de overheid voorzien moeten zijn van een deugdelijke en kenbare motivering; de Wet Openbaarheid van Bestuur gaat uit van een overheid die zo openbaar mogelijk handelt met het oog op een ‘goede en democratische bestuursvoering’; en de Algemene Verordening Gegevensbescherming geeft burgers het recht op transparantie bij geautomatiseerde besluiten.

Daarnaast staat anti-discriminatiewetgeving het gebruik in de weg van risicoprofielen die zich bijvoorbeeld richten op mensen van een bepaalde nationaliteit. Het is daarom belangrijk dat we een risicoprofiel kunnen controleren op discriminerende uitgangspunten of effecten.

Algoritmes

Nu kunnen we een risicoprofiel uitdenken, opschrijven en in een Wordbestand vastleggen. We kunnen het risicoprofiel ook automatiseren en er een algoritme van maken. In het eerste geval zouden we dit profiel als een beleidsregel kunnen kwalificeren, die op grond van de Algemene Wet Bestuursrecht openbaar is, maar in het tweede geval hoeft het profiel blijkens de antwoorden van de staatssecretaris níet openbaar gemaakt te worden. Daarmee is het risicoprofiel ook niet te controleren. Dat verschil is niet uit te leggen.

Ongrijpbaar

Mogelijk ontstaat dit verschil doordat een algoritme voor velen een ongrijpbaar fenomeen is. Voor de meeste mensen is een algoritme een onleesbaar wiskundig rekenmysterie dat bijna niemand voor zijn lol zal ontcijferen. Maar een algoritme kan verstrekkende gevolgen hebben. Het is daarom belangrijk te beseffen dat een algoritme wordt ontwikkeld op grond van menselijke keuzes die zijn vastgelegd in een beslisboom. Gebruikt de overheid zo’n algoritme om risicoprofielen te maken, dan verdeelt zij haar bevolking in hokjes en maakt zij onderscheid tussen verschillende bevolkingsgroepen.

Onder omstandigheden mag dit best: een verschil in behandeling tussen kinderen en volwassenen als het gaat om leerplicht kunnen we goed begrijpen, net als tussen ouderen en jongeren als het gaat om het recht op AOW of tussen mannen en vrouwen bij het oproepen voor screening op borstkanker. Al deze verschillen zijn transparant en met behulp van objectieve criteria uit te leggen.

Niet transparant

Dat ligt geheel anders wanneer onderscheid tussen mensen wordt gemaakt op grond van criteria, vastgelegd in een algoritme, die níet transparant zijn. Natuurlijk is de opsporing van uitkeringsfraude een zwaarwegend algemeen belang en moeten gemeenten in staat worden gesteld om die fraude aan te pakken. Het doel heiligt echter niet alle middelen. In een rechtsstaat is de overheid controleerbaar en zijn de grondrechten gewaarborgd. In een maatschappij waarin ongelijke behandeling alleen is toegestaan op grond van objectieve criteria zou de overheid geen gebruik moeten maken van geheime algoritmes. Wanneer zij dat toestaat, raakt de rechtsstaat op een hellend vlak.

Mr.dr. Aline Klingenberg is coördinator van de opleiding IT-recht bij de Faculteit Rechtsgeleerdheid van de Rijksuniversiteit Groningen. Zij is expert op het gebied van digitale communicatie, openbaarheid van bestuur, privacy en bescherming van persoonsgegevens.

Toon reacties

Word wakker met het belangrijkste nieuws uit het Noorden met onze ochtend-nieuwsupdate.

Meer dan 22.249 nieuwsbriefabonnees

Je kunt je op elk moment weer uitschrijven

Lees hier ons privacy statement.