Volgens een recent wetsvoorstel moeten werkgevers en intermediairs (zoals uitzendbureaus) straks schriftelijk aangeven hoe ze een transparant werving- en selectieproces hanteren waarin ze niet discrimineren op grond van bijvoorbeeld afkomst, geslacht of leeftijd. Doen ze dat niet (goed), dan lopen ze kans op een boete van wel 4.500 en openbaarmaking van hun naam.
‘Onzinnige tests werken discriminatie extra in de hand.’
Een goed idee, betogen Marise Born, hoogleraar personeelspsychologie in Rotterdam, Rob Meijer, hoogleraar psychometrische en statistische technieken in Groningen en Paul Kop, voorzitter sectie Arbeids- en Organisatie Psychologen NIP. Want ‘helaas komt discriminatie momenteel veel voor’, schrijven zij. En dat wordt volgens ook nog eens in de hand gewerkt door ‘onzinnige tests die misleidend onder de noemer “psychologie” worden toegepast’.
Een algoritme hoort erbij
Een goed werving- en selectieproces bestaat volgens de drie uit een
- functie-analyse,
- vacaturetekst,
- wervingsmethoden,
- cv-check,
- vragenlijsten,
- selectiegesprekken,
- tests
- ‘en – minder bekend – een voorspellingsmodel; een rekenregel ofwel algoritme om alle verzamelde informatie in samenhang te beoordelen.’
Want: ‘zonder algoritme handelen mensen minder consequent. Lees: in potentie discriminerend’, aldus de drie NIP-(bestuurs)leden.
Geen racistische robots, alsjeblieft
Het is cruciaal dat dergelijke tests en voorspellingsmodellen helder en transparant zijn, zeggen ze. ‘We zitten niet te wachten op racistische robots. Algoritmes kunnen ons een spiegel voorhouden over eventueel discrimineren. Algoritmes die door end-to-end en machine-learning tot stand komen zijn echter niet uitlegbaar en niet transparant. Gevolg: je selecteert personeel op basis van een blind voorspellingsmodel.’
‘Algoritmes kunnen ons een spiegel voorhouden over eventueel discrimineren.’
En dat noemen de drie ‘onaanvaardbaar’. Oftewel: ‘Degene die de werving- en selectieprocedure uitvoert en voorspellingsmodellen gebruikt, moet goed kunnen uitleggen welk gewicht hij toekent aan de verschillende onderdelen van het selectieproces. En hier ook naar handelen.’
Wat is pluis? En wat is niet pluis?
Ze noemen het ‘een geruststellende gedachte’ dat het eigen NIP hiervoor ‘goed opgeleide Registerpsychologen’ beschikbaar heeft. ‘Zij zijn expert in transparante voorspellingsmodellen ontwerpen en eerlijke testen kiezen. Ze zijn immers opgeleid om wetenschap en pseudowetenschap van elkaar te scheiden, pluis van niet-pluis. En om testresultaten juist te interpreteren, zonder blackbox-gedoe.’
‘Registerpsychologen zijn opgeleid om wetenschap en pseudowetenschap van elkaar te scheiden.’
Nog een geruststellende gedachte noemen ze de Commissie Testaangelegenheden Nederland (COTAN), die de kwaliteit van tests en vragenlijsten beoordeelt. ‘Bijvoorbeeld of de ontwikkelaar heeft aangetoond dat een test onpartijdig is of het latere werkgedrag onafhankelijk van iemands afkomst, geslacht of leeftijd kan voorspellen.’ Kortom, zo stellen de hoogleraren: ‘Wij betogen dat werkgevers bij het werving- en selectieproces eerlijk handelen en bijvoorbeeld transparante algoritmes inzetten, monitoren en controleren.’
‘Handhaven is wellicht moeizaam, maar wij zien genoeg mogelijkheden voor meer transparantie.’
En de antidiscriminatiewet kan daarbij goed van pas komen, betogen ze. ‘Het handhaven ervan is wellicht moeizaam, maar wij zien voldoende mogelijkheden voor een transparante gang van zaken. En dat zou een zegen zijn voor de arbeidsmarkt.’
Lees ook:
- Geen beleid tegen discriminatie? Dan riskeert recruiter straks 4.500 euro boete
- Ga je met algoritmes aan de slag? Accepteer dan nooit een black box
Credit Foto Nijntje Pluis