Inzicht in het onzichtbare algoritme

De afgelopen jaren duikt de term algoritme vaak in de media op. Een algoritme kan worden gezien als een soort recept. Het beschrijft een aantal stappen die doorlopen moeten worden om een bepaald doel te bereiken. De term algoritme heeft dus niet noodzakelijkerwijs met technologie te maken, een handleiding om een kast in elkaar te zetten is in feite ook een vorm van een algoritme. Het gebruik van algoritmes is niet zonder risico’s, laat het nieuws de afgelopen maanden zien.

Jonge vrouw aan programmeren op desktopcomputer met twee monitoren © Shutterstock / Gorodenkoff

De ontwikkelingen rondom digitalisering gaan razendsnel. In deze artikelen houden medewerkers van de SER je op de hoogte over de laatste actualiteiten en wat die betekenen voor organisaties, de arbeidsmarkt en onze samenleving.

In de volksmond worden algoritmes steeds vaker met data en kunstmatige intelligentie (AI) geassocieerd. Dit komt vooral doordat een algoritme met behulp van grote hoeveelheden data kansberekeningen kan uitvoeren. Hiermee kunnen bijvoorbeeld risico’s worden ingeschat, de beste films voor je worden uitgekozen of de prijs van een appel worden berekend.

Een algoritme gebruiken brengt risico’s met zich mee. Allereerst maakt het algoritme alleen gebruik van de informatie die in de dataset zit, het kan namelijk niet inschatten wat de omstandigheden of effecten van zijn uitkomsten zijn. Het is daarom van belang dat er geen bias (vertekening van het resultaat) of fouten in de dataset zitten. Ook moet de dataset voldoen aan de bestaande wetgeving, zoals rondom privacy en intellectueel eigendom.

Opsporing van fraude

Daarnaast kunnen sommige berekeningen (onbedoeld) discriminerend werken tegen een bepaalde bevolkingsgroep of tot verkeerde uitkomsten leiden. Recentelijk deden NOS op 3, Investico en het Hoger Onderwijs Persbureau onderzoek naar de fraudecontrole van Dienst Uitvoering Onderwijs (DUO). Uit dit onderzoek kwam naar voren dat DUO gebruikmaakt van een algoritme om fraude met een uitwonende studiebeurs op te sporen. Eén van de criteria die hiervoor werd gebruik was of het woonadres van de student niet op naam stond van een familielid. Dit had een onevenwichtig effect op studenten met een migratieachtergrond.

Met deze manier van opsporing werd sinds 2012 bij circa 10.000 studenten onrechtmatig gebruik van de beurs voor uitwonende studenten geconstateerd. Tegen tweederde van deze gevallen is bezwaar gemaakt, waarvan een kwart meteen in het gelijk is gesteld. Een deel heeft via de rechter alsnog hun gelijk proberen te halen. In het onderzoek werd navraag gedaan bij ruim dertig advocaten die samen 376 cliënten hebben begeleid. In 97% van de gevallen ging het om studenten met een migratieachtergrond.

Hoewel dit niet betekent dat het algoritme dat DUO gebruikte discriminerend of onwettig is, heeft onderwijsminister Dijkgraaf besloten om onderzoek te doen naar het gebruik van dit algoritme en er per direct mee te stoppen. Situaties als deze tonen aan dat er nog meer inzicht in het gebruik van algoritmes nodig is. Hier is al enige tijd aandacht voor. Zo heeft de Rijksoverheid in december 2022 een publiek algoritmeregister gelanceerd om het gebruik van algoritmes door overheidsorganisaties inzichtelijk te maken. De Autoriteit Persoonsgegevens heeft sinds begin dit jaar het toezicht op algoritmes versterkt, en brengt elk halfjaar een rapportage uit over de actuele ontwikkelingen. Het eerste rapport kun je nu lezen.

Nuttige toepassingen

In het op 5 juli gepubliceerde rapport Rechtvaardige algoritmes laat het Centraal Planbureau (CPB) zien dat discriminerende factoren in een algoritme ook juist nuttig kunnen zijn om een beoogd resultaat te behalen. Het CPB maakt een vergelijking tussen verschillende methodes om aankomende studenten te selecteren voor de schaarse plekken bij de studie geneeskunde. Men wil vooral studenten toelaten die een grote kans hebben om binnen zes jaar hun opleiding af te ronden. Ook is van belang dat dokters en artsen representatief zijn voor de culturele verscheidenheid in Nederland.

Bij de verschillende onderzochte selectiemethodes, bleek dat er minder mensen met een migratieachtergrond zouden worden geselecteerd dan je op basis van het aantal inschrijvingen zou verwachten. Door de factor migratieachtergrond op verschillende manieren in het algoritme te verwerken, kan de diversiteit van de geneeskundestudenten volgens het CPB worden verbeterd, zonder het slagingspercentage drastisch te verminderen. Dit onderzoek laat zien dat het belangrijk is om van tevoren goed na te denken over de opbouw van een algoritme: alle verschillende groepen moeten met de juiste verhoudingen in de selectie worden opgenomen.

 

Wat zijn de kansen en de risico’s van digitalisering?

Hoe zorgen we ervoor dat iedereen een goede plek houdt of krijgt in een samenleving die steeds digitaler wordt?