In een opiniestuk in NRC pleit Christine Moser, universitair hoofddocent Organisatiewetenschappen aan de Vrije Universiteit Amsterdam, ervoor om voorzichtiger om te gaan met het gebruik van algoritmen. Aanleiding voor het opiniestuk is het nieuws dat de Nederlandse Zorgautoriteit (NZa) privacygevoelige informatie van GGZ-patiënten verzamelt om een algoritme te voeden dat de zorgvraag zou moeten voorspellen.
Ondanks vele slechte voorbeelden uit het verleden, zoals de toeslagenaffaire, blijven organisaties zoals NZa volgens Moser blind vertrouwen op algoritmen. Soms komt er zelfs helemaal geen menselijk ingrijpen meer aan te pas.
Dat blind vertrouwen heeft volgens Moser, die er onderzoek naar doet, drie belangrijke oorzaken. “Ten eerste is het voor organisaties makkelijk om dingen in getallen uit te drukken -onder het motto ‘meten is weten’. Dit past goed bij algoritmes, die immers alleen met getallen overweg kunnen. Maar niet alles is uit te drukken in getallen. Iedereen snapt dat een vraag zoals „Op een schaal van 1 tot 10, hoe voelt liefde/teleurstelling/angst?” niet de lading dekt. Sommige dingen kun je niet meten,” schrijft ze in het NRC.
“Ten tweede zijn algoritmes agnostisch wat cultuur en omgeving betreft: het algoritme maakt het niet uit of het in Nederland, de VS of Madagaskar wordt gebruikt. Dit is voor organisaties makkelijk, omdat ze overal hetzelfde algoritme kunnen uitrollen. Voor mensen maakt de omgeving wél uit,” vervolgt Moser.
De derde oorzaak is dat de resultaten van algoritmen, bijvoorbeeld scores of percentages, machtig en overtuigend zijn. Moser: “Dit klinkt vreemd omdat we normaliter denken dat wij, de mensen, de baas zijn over technologie. Echter, wanneer we geconfronteerd worden met zo’n getal dan is het heel moeilijk om níet mee te gaan in de logica van het getal.”
Niet geschikt voor alle vraagstukken
Moser wil er niet voor pleiten om helemaal geen algoritmes meer te gebruiken in organisaties. “Dit station is gepasseerd, en bovendien zijn er veel vraagstukken en toepassingen die baat hebben bij het gebruik van algoritmes. Maar wat de recente geschiedenis laat zien is dat algoritmes niet geschikt zijn om morele, ethische, en sociale vraagstukken aan te pakken. Ook al is het vraagstuk van de NZa, namelijk de optimalisering van wachtlijsten, op het eerste oog een planningsvraagstuk, dan nog wordt hier op een onethische manier gebruik gemaakt van data,” aldus Moser in het opiniestuk.
Meer lezen
Het volledige opiniestuk is te lezen in NRC.
Moser baseerde het opiniestuk op verschillende onderzoeken, waaronder:
On the mechanization of values, Academy of Management Review
What humans lose when we let AI decide, MIT Sloan Management Review
Is technology a useful servant or a dangerous master? Business & Society
Morality in the age of artificially intelligent algorithms, Academy of Management Learning & Education
When algorithms rule, values can wither, MIT Sloan Management Review