Home Selectie en assessment Waarom algoritmes nog lang niet alle wervingsproblemen kunnen oplossen (deel 3/4)

Waarom algoritmes nog lang niet alle wervingsproblemen kunnen oplossen (deel 3/4)

219 keer
0
hiring 3 tandrad data ai

Technologie en algoritmes worden steeds belangrijker in de wereld van werving en selectie. Maar moeten we daar wel zo blij mee zijn? Hoogleraar Peter Cappelli plaatst enkele kanttekeningen…

Ja, zegt hij, deze nieuwe tools kunnen de bias en vooroordelen terugdringen die nu nog zo welig tieren in de wereld van werving en selectie. En ja, algoritmes kunnen ook hun voordeel hebben voor goede kandidaten die voorheen zouden zijn afgewezen vanwege bijvoorbeeld hun afkomst of opleiding. Maar er is ook een schaduwzijde, zegt Cappelli: de tools kunnen ook het gebruik van variabelen promoten die misschien niet zo voorspellend, maar wel verontrustend zijn (of in elk geval: dat zouden moeten zijn).

Je moet niet alleen kijken naar de best presterenden

Cappelli noemt het voorbeeld van technologie die kijkt naar de kenmerken van de best presterende medewerkers, en vervolgens nieuwe kandidaten daarop selecteert. Dat varieert van woordkeuze, tot gezichtsuitdrukkingen en gebruik van sociale media en type browsers. Maar zolang je deze variabelen vervolgens niet checkt bij de mínder presterende medewerkers, hebben ze geen enkele voorspellende waarde, benadrukt Cappelli. Bovendien: sociale media van kandidaten checken roept bijvoorbeeld ook privacy-vragen op. Ja, het gaat om openbare data. Maar maakt het dat eerlijk om er je keuze voor nieuwe medewerkers op te baseren? Zeker als het posts van jaren geleden betreft…

‘heel weinig werkgevers verzamelen genoeg data om gerechtvaardigde conclusies te kunnen trekken’

Een ander probleem van de vele AI- of machine learning-benaderingen is dat nog maar heel weinig werkgevers genoeg data verzamelen om gerechtvaardigde conclusies te trekken. Theoretisch kunnen aanbieders van de software dat probleem omzeilen door van heel veel werkgevers heel veel data te verzamelen. Maar, zegt Cappelli, ze weten daarbij zelden of de context van het ene bedrijf wel met die van het andere te vergelijken is – en dus of hun voorspellingen wel accuraat te generaliseren zijn.

Mensen zijn geen kogellagers

Nog een bezwaar dat hij noemt is dat alle AI-benaderingen terugkijken, dat wil zeggen: gebaseerd zijn op uitkomsten die al gebeurd zijn. En, zoals Amazon al ontdekte: het verleden kan behoorlijk anders zijn dan de toekomst die je zoekt. Dat een bepaald criterium correleert met werkprestaties is nodig. Maar dat alleen is nog niet voldoende om het te kunnen gebruiken in werving en selectie. Het gaat hier om mensen, , aldus Cappelli. En dat is iets heel anders dan bijvoorbeeld voorspellen hoe lang een kogellager meegaat.

cappelli

Daarbij stuit je ook al snel op wettelijke beperkingen, zegt hij. Hoe kun je bijvoorbeeld aantonen dat selectie op basis van micro-expressies niet discriminerend is? Ander voorbeeld: het is aangetoond dat de woon-werkreistijd voorspellend is voor verloop. Oftewel: hoe verder iemand moet reizen, hoe groter de kans dat hij of zij een andere baan gaat zoeken. Maar mag je op basis daarvan mensen uitsluiten die verder weg wonen?

Volgens Cappelli is het gebruik van algoritmes in werving en selectie dan ook ‘extreem moeilijk’. En in elk geval is het nooit goedkoop. ‘Er bestaat hier no free lunch. En je kunt je zelfs afvragen of je de maaltijd niet beter helemaal kunt overslaan.’

Lees ook

LAAT EEN REACTIE ACHTER

Please enter your comment!
Please enter your name here