Wat zijn data en algoritmen?

De overheid verzamelt steeds meer digitale gegevens van burgers. Ook die van u. Die gegevens noemen we ook wel data. Denk daarbij aan informatie over scholen of het verkeer in een wijk. Maar ook aan persoonlijke informatie van burgers, zoals hun leeftijd, woonplaats of afkomst.

Een algoritme trekt conclusies uit die data. Bijvoorbeeld door gegevens met elkaar te combineren. Of door er berekeningen op los te laten.

Hoe gebruikt de overheid algoritmen?

Een voorbeeld: de gemeente Tilburg gebruikt algoritmen om de ‘leefbaarheid’ van wijken te onderzoeken. Daarvoor verzamelt de gemeente eerst allerlei data. Hoeveel koopwoningen staan er in een wijk? Zijn er winkels in de buurt? Hoeveel niet-westerse inwoners wonen er? 

Het algoritme bekijkt al die data en geeft de wijk een score. Zo weet de gemeente precies welke wijken extra aandacht nodig hebben.

Vrouw die door een straat in Tilburg West loopt

Tilburg West kreeg een lage score van het algoritme en werd aangewezen als focuswijk.
Foto: ANP/Dolph Cantrijn

De voordelen van algoritmen

De overheid gebruikt steeds vaker data en algoritmen, blijkt uit onderzoek van de Algemene Rekenkamer (2021). Bijna elk ministerie ontwikkelt systemen met algoritmen of gebruikt die al.

Dat is niet gek. Algoritmen maken het werk van veel organisaties makkelijker. Ze kunnen veel informatie verwerken en ingewikkelde berekeningen maken. Die komen bijvoorbeeld van pas bij controles of preventie. Zo houden gemeenten verkeersstromen in de gaten met algoritmen. En de politie probeert criminaliteit voor te zijn met voorspellende algoritmen.

De risico’s van algoritmen

Tegelijkertijd zorgen data en algoritmen soms voor grote problemen:

1. Algoritmen kunnen discrimineren

Een algoritme combineert gegevens met elkaar. Dat kan zorgen voor discriminatie. Wie kent de toeslagenaffaire niet? Toen zag de Belastingdienst mensen met een dubbel paspoort als mogelijke fraudeurs. Het algoritme zag ‘een tweede nationaliteit’ namelijk als een risico voor fraude. Veel mensen kwamen daardoor in de financiële problemen.

Deze video van de NOS laat zien hoe algoritmen racistisch en seksistisch kunnen zijn.

2. Algoritmen kunnen onze privacy schenden

Een ander risico? Algoritmen kunnen onze privacy schenden. Neem SyRI. De Belastingdienst en UWV gebruikten dit systeem om fraude met belastingen of uitkeringen op te sporen.

SyRI verzamelde persoonlijke gegevens van burgers, zoals hun woonplaats, opleiding en de subsidies die ze kregen. Het algoritme maakte berekeningen met die data. Daar kwam een lijst uit van mensen die mogelijk frauderen.

Fouten in het systeem zijn lastig te vinden en te herstellen

SyRI zorgde voor veel discussie en leidde zelfs tot een rechtszaak in 2020. Het systeem zou ‘niet transparant’ zijn en ‘niet te controleren’. Het oordeel van de rechter? SyRI gaat inderdaad tegen de privacy van burgers in. De overheid moest met dit systeem stoppen. 

3.  Algoritmen zijn niet altijd transparant

Een algoritme is niet altijd transparant. Het kan bijvoorbeeld lastig zijn om erachter te komen hoe een algoritme precies een beslissing neemt.

De discussie over de corona-app in 2020 is daar een voorbeeld van. Veel Tweede Kamerleden maakten zich zorgen. Waar komen gegevens vandaan? Hoe worden ze verzameld en gebruikt? En zijn organisaties wel duidelijk over het gebruik van gegevens? 

4. Maatwerk is lastig

Een ander nadeel van algoritmen? Ze bieden weinig ruimte voor maatwerk. Een algoritme neemt namelijk automatische beslissingen. Het systeem kijkt dus niet naar de persoonlijke situatie van mensen.

Ook fouten zijn lastig te vinden. Dat komt bijvoorbeeld doordat systemen van verschillende instanties met elkaar verbonden zijn. Het is bijna onmogelijk om met één druk op de knop een fout in álle systemen te herstellen.

Mannen achter computerschermen waarop code te zien is

Algoritmen werken automatisch. Daardoor kunnen mensen lastig ingrijpen als er iets misgaat.

Aandachtspunten voor de overheid

Al deze risico’s kunnen ervoor zorgen dat burgers minder vertrouwen krijgen in de overheid. Hoe kunnen we dat voorkomen?

Begin 2021 publiceerde de Algemene Rekenkamer (ARK) een onderzoek naar het gebruik van algoritmen door de Rijksoverheid. De ARK wilde weten hoe de Rijksoverheid kan voorkomen dat er vooroordelen in algoritmen sluipen. En of de overheid goed op de hoogte is van de gevolgen van algoritmen voor burgers of bedrijven.

Burgers moeten weten waar ze terechtkunnen met vragen

Uit het onderzoek blijkt dat de Rijksoverheid veel aandacht besteedt aan het beperken van privacyrisico’s van burgers. Ook nemen algoritmen nooit helemaal zelf een besluit. Er zijn altijd mensen die meekijken met algoritmen.

Tegelijkertijd is er ook verbetering mogelijk:

  • De ARK verwacht dat data en algoritmen de komende jaren steeds meer taken van ambtenaren overnemen. Daarom moeten er meer eisen komen voor de kwaliteit van algoritmen.
  • Loopt een systeem vast? Dan moeten mensen kunnen ingrijpen. Zodat maatwerk mogelijk blijft.
  • De burger staat niet altijd centraal bij de inzet van algoritmen. Maar burgers moeten weten wanneer de overheid een algoritme gebruikt. En waarom. Ook moeten ze weten waar ze terechtkunnen met vragen.

Praktische richtlijnen

Als hulpmiddel heeft de ARK een toetsingskader ontwikkeld. Hierin staan richtlijnen voor (overheids)organisaties om de kwaliteit van algoritmen te controleren. En om te checken of de risico’s van algoritmen duidelijk genoeg in beeld zijn. Ondertussen is de ARK ook bezig met een vervolgonderzoek om te kijken of ministers algoritmen verantwoord inzetten.

Beleid van de overheid

Ook de politiek kijkt kritisch naar het beleid over data en algoritmen. Er bestaan al verschillende wetten om toe te passen. Denk aan de Grondwet of de Algemene Verordening Gegevensbescherming (AVG). En er zijn meerdere instanties die toezicht houden op data en algoritmen, zoals de Algemene Rekenkamer, de Autoriteit Persoonsgegevens en de Auditdienst Rijk.

Daarnaast werkt het kabinet aan nieuwe regels, richtlijnen en standaarden. Die moeten systeemontwerpers en uitvoeringsinstanties helpen om beter om te gaan met de risico’s van algoritmen. Ook wordt er een speciaal beoordelingsprogramma ontworpen om de risico’s rondom mensenrechten beter in te schatten en te voorkomen.

Beter toezicht op algoritmen

Verder moet het toezicht op algoritmen structureler, vinden politici. Organisaties zoals de ARK en de Autoriteit Persoonsgegevens kunnen hun kennis actiever met elkaar delen. Of samenwerken als ze controles uitvoeren. Een aantal ministeries gaat daarom in gesprek met de organisaties die toezicht houden.

Plakkaat met het logo van Autoriteit Persoonsgegevens op de gevel van het kantoor van de instantie

Organisaties kunnen hun kennis actiever met elkaar delen.
Foto: ANP/Hollandse Hoogte/Peter Hilz

De visie van de Nationale ombudsman

Kortom: er zijn nog allerlei uitdagingen rondom het gebruik van data en algoritmen door de overheid. Het onderwerp heeft daarom de volle aandacht van de Nationale ombudsman. Hij presenteerde een duidelijke visie over het gebruik van data en algoritmen door de overheid. Met daarin praktische richtlijnen voor organisaties om burgers meer centraal te zetten. Onderzoeker Emily Govers werkte mee aan deze visie en vertelt er meer over in het interview verderop in dit magazine.

Voor professionals

In dit magazine delen we belangrijke informatie over data en algoritmen voor professionals. Van ervaringsverhalen tot praktijkcases. Hoe gaat de Sociale Verzekeringsbank om met data en algoritmen? Weten mensen op straat eigenlijk wel wat algoritmen zijn? En wat kan de Nationale ombudsman voor u betekenen?