Gem. leestijd 7 min  34x gelezen

Maakt A.I. ons recruitment nu eerlijker of niet? Daar moet je over blíjven praten

Dat A.I. recruitment efficiënter kan maken, dat weten we nu wel. Maar hoe zit het met de eerlijkheid van het proces? Nieuw onderzoek laat zien dat het vooral erom gaat wat je onder ‘eerlijk’ verstaat. En dat dit bepaald geen vaststaand gegeven mag zijn.

Het artikel gaat hieronder verder.

Webinar: Arbeidsmarkttrends 2026

In het webinar op 17 december van 11:30 – 12:30u nemen we je mee in de belangrijkste trends en ontwikkelingen die de ...

Bekijk event
Lees meer over Webinar: Arbeidsmarkttrends 2026
Maakt A.I. ons recruitment nu eerlijker of niet? Daar moet je over blíjven praten

Zal A.I. de eerlijkheid in recruitment verbeteren of verslechteren? Nu bijna 90% van de bedrijven een vorm van A.I. zegt te gebruiken bij hun werving en selectie, is deze vraag van steeds groter belang. Waar de ene gelooft dat algoritmes het wervingsproces eerlijker zullen maken door menselijke bias en ‘ruis‘ in de besluitvorming te verminderen, waarschuwt de ander juist dat algoritmes bestaande ongelijkheden op grote schaal kunnen reproduceren en zelfs versterken. Beide kampen negeren volgens een aantal (Nederlandse) onderzoekers echter een cruciale realiteit: A.I.-implementatie verandert zélf de definitie van wat eerlijk is.

‘Het risico van A.I. in recruitment is stil, maar ernstig.’

En dat is een probleem, schrijven ze in Harvard Business Review. De meeste bedrijven implementeren namelijk A.I.-wervingstools zonder ze grondig en continu te evalueren tijdens de ontwikkeling en het gebruik. ‘Eerlijkheid wordt gezien als iets dat de tool vanaf dag 1 levert, in plaats van iets dat leiders in de praktijk moeten monitoren en bijsturen. Het risico is stil, maar ernstig: A.I. kan de kandidatenpool verkleinen, menselijke expertise buitenspel zetten en 1 definitie van eerlijkheid vastleggen’, aldus Elmira van den Broek (van de Universiteit van Stockholm, foto), Marleen Huysman en (beide van de VU Amsterdam).

3-jarig veldonderzoek

De 3 wetenschappers deden 3-jarig veldonderzoek bij een niet nader genoemd consumentengoederenbedrijf (hoewel het niet veel moeite kost om hierin Unilever te herkennen…). Om hier de eerlijkheid te verbeteren, verving de HR-afdeling de traditionele cv-beoordelingen door blinde, gamified assessments die A.I. vervolgens analyseerde. Het algoritme werd getraind op data van huidige medewerkers die dezelfde games hadden gespeeld, waarbij hun scores werden gekoppeld aan prestaties. Door te leren welke data geassocieerd werden met succes, voorspelde het systeem de geschiktheid van nieuwe kandidaten, zonder rekening te houden met hun namen, opleidingen of andere demografische kenmerken.

‘Het algoritme zette de principes van HR echter om in rigide regels die moeilijk te omzeilen waren.’

Het idee leek simpel, schrijven de onderzoekers: ‘Maak het wervingsproces eerlijker door middel van consistente, datagestuurde regels.’ Maar naarmate de tool werd opgeschaald, begon de definitie van ‘eerlijkheid’ te verschuiven, constateerden ze. ‘Zo gaf HR prioriteit aan consistentie voor alle kandidaten, terwijl managers op de werkvloer waarde hechtten aan de lokale context, omdat ze erkenden dat wat een goede kandidaat maakt, verschilt per functie, markt en team. Deze opvattingen hadden jarenlang naast elkaar bestaan. Het algoritme zette de principes van HR echter om in rigide regels die moeilijk te omzeilen waren.’

Wat is eigenlijk eerlijk?

Na verloop van tijd werd deze algoritmische versie van ‘eerlijkheid’ dominant, aldus de onderzoekers. ‘Terwijl andere opvattingen, zoals het inspelen op lokale behoeften, naar de achtergrond verdwenen.’ De les? ‘De vraag of mensen of machines eerlijker zijn, brengt ons niet verder. In plaats daarvan zouden leiders beter andere vragen moeten stellen. Vragen over wat eerlijk nu eigenlijk betekent binnen de organisatie, wie het definieert en welke versie van eerlijkheid A.I. versterkt of juist ondermijnt.’ Ze hebben daarom een aantal van die vragen opgesteld, om A.I.-systemen mee te kunnen evalueren, vóór en na implementatie.

#1. Welke vormen van eerlijkheid leven ​​er in onze organisatie?

Als bedrijven A.I. inzetten bij werving en selectie, gaan ze er vaak van uit dat eerlijkheid één duidelijke betekenis heeft, aldus de onderzoekers. Maar zo is het in de praktijk volgens hen eigenlijk nooit. ‘Eerlijkheid heeft meestal meerdere betekenissen, en die komen niet altijd overeen.’ Zo hield de onderzochte HR-afdeling het op ‘consistentie en onpartijdige procedures’, terwijl de managers een meer contextafhankelijke vorm van eerlijkheid erop nahielden. ‘Omdat deze vorm informeel en onuitgesproken bleef, kwam deze nooit in het ontwerp van de A.I. terecht. Maar toen het systeem eenmaal live was, ontstonden snel conflicten, en werd dit ontbrekende perspectief pijnlijk duidelijk.’

Het HR-algoritme bestempelde de uitstekend presterende stagiair als ‘slechte match’.

Een senior manager wilde bijvoorbeeld een stagiair aannemen die hij had begeleid en van wie hij geloofde dat die zou uitblinken in een snelgroeiende regio. Het algoritme bestempelde de kandidaat echter als een ‘slechte match’ op basis van zijn persoonlijkheidsgegevens. HR bleef bij het model en bestempelde elke afwijking als een schending van de consistentie; de manager zag het als een oneerlijke afwijzing van zijn ervaring. Deze spanning onthult een belangrijke les, aldus de onderzoekers: als je een definitie van eerlijkheid niet vanaf het begin inbouwt, erkent het systeem deze later ook niet, met conflicten als gevolg.

> Hoe dit voor te zijn?

Hoe dit soort conflicten te voorkomen? ‘Een methode die leiders helpt verschillende definities te ontdekken, is om datawetenschappers het wervingsproces te laten observeren (zoals wij als onderzoekers hebben gedaan). Zulke externe waarnemers moeten dan voldoende tijd besteden aan het evalueren van wat ‘eerlijke’ en ‘oneerlijke’ beslissingen inhouden voor verschillende groepen, van HR en managers op de werkvloer tot juristen en sollicitanten zelf. Door uit eerste hand te zien wat elke groep als eerlijk beschouwt, kun je de meerdere en vaak tegenstrijdige definities blootleggen die binnen organisaties naast elkaar bestaan.’

‘Gebruik van A.I. moet onderwerp zijn van voortdurend ethisch debat.’

Meningsverschillen over algoritmische drempels, voorspellingen of uitzonderingen zijn geen teken van falen, schrijven ze ook. ‘Het zijn momenten waarop verborgen aannames over eerlijkheid zichtbaar worden en ter discussie komen te staan.’ Kijk bijvoorbeeld naar de H&M Group, stellen ze. ‘In plaats van ethiek te behandelen als een vaststaand checklist, heeft dit bedrijf een Ethical AI Debate Club opgericht waar teams samenkomen en de afwegingen bespreken rond A.I.-gebruik. Door deze debatten te institutionaliseren, maakt H&M voortdurende reflectie op eerlijkheid tot dagelijks onderdeel van het werk, in plaats van een bijzaak.’

#2. Wie geeft A.I. de macht om te bepalen wat ‘eerlijk’ is?

A.I.-systemen bepalen niet zelf wat eerlijk is; mensen geven ze die macht, schrijven de onderzoekers (ten overvloede). De mensen en afdelingen die ervoor kiezen ze te implementeren, het gebruik ervan goedkeuren en ze positioneren als ‘objectief’ of ‘eerlijk’, beïnvloeden op hun beurt de algoritmen zelf. ‘We hebben deze dynamiek zelf ervaren’, schrijven ze. ‘Bij het onderzochte bedrijf prezen zowel de HR-afdeling als de externe leverancier de technologie aan als morele en technische doorbraak. Deze formulering was sterk genoeg om de A.I.-screening erdoor te drukken en de aandacht af te leiden van potentiële risico’s.’

‘Eerlijkheid is niet ingebouwd in de code, het wordt onderhandeld.’

Managers die hun zorgen uitten over het ‘klonen’ van kandidaatprofielen of het missen van atypische kandidaten, werden afgedaan als subjectief in plaats van als een verdediging van eerlijkheid. Zo kon wat begon als een initiatief voor eerlijkheid, uiteindelijk leiden tot het negeren van de lokale inzichten die al lange tijd de basis vormden voor het wervingsproces, aldus de onderzoekers. ‘Als systemen worden gepresenteerd als inherent eerlijk, wordt het bijna onmogelijk om ze in twijfel te trekken zonder als anti-vooruitgang te worden gezien’, stellen ze. ‘Maar eerlijkheid is niet ingebouwd in de code, het wordt onderhandeld door de mensen die het ontwerpen, implementeren en verdedigen.’

> Hoe dit op te lossen?

Hoe dit op te lossen? Leiders moeten kritisch kijken naar de taal die rondom A.I.-initiatieven wordt gebruikt en die als ‘eerlijk’ wordt aangeprezen, stellen ze. Wordt een systeem gepromoot als ‘ethisch’, ‘wetenschappelijk’ of ‘onpartijdig’? Dan moet je volgens hen je juist afvragen: wie doet deze beweringen en welke belangen of agenda’s dienen ze? Welke criteria definiëren eerlijkheid hier? En wiens stemmen of expertise worden genegeerd? ‘Deze vragen vertragen de vooruitgang niet, ze helpen juist ervoor te zorgen dat deze aansluit bij een breed scala aan perspectieven in plaats van gedreven te worden door ongebreideld techno-optimisme.’

‘Creëer rollen en procedures die ervoor zorgen dat meerdere stemmen de ruimte krijgen.’

En kijk ook goed naar de samenstelling van implementatieteams, adviseren ze. Zet er niet alleen voorstanders van A.I. in, maar ook ethische experts, zakelijke partners en vertegenwoordigers van degenen die het systeem het meest beïnvloedt. ‘Creëer rollen en procedures die ervoor zorgen dat meerdere stemmen de ruimte krijgen.’ Zoals bijvoorbeeld Microsoft doet, met zijn vertrouwen in lokale ‘Verantwoordelijke A.I.-kampioenen’: ‘domeinexperts binnen de businessunits die ethische kwesties signaleren en aannames ter discussie stellen tijdens de ontwikkeling en implementatie van systemen.’

#3. Welke eerlijkheid versterkt A.I., en wat gaat verloren?

A.I.-systemen passen niet alleen een bepaalde definitie van eerlijkheid toe, als die definitie eenmaal is bepaald, versterkt het systeem die ook nog eens. ‘Zodra principes zijn vastgelegd in drempelwaarden, modellen en workflows, krijgen ze een nieuwe betekenis’, aldus de onderzoekers. ‘Tenzij leiders deze keuzes regelmatig herzien, wordt één enkele visie op eerlijkheid vastgelegd, terwijl andere waardevolle perspectieven verloren gaan’. Zoals bij het onderzochte bedrijf gebeurde, waar kandidaten met een score boven 72% zonder menselijke beoordeling een doorverwijzing kregen, en de rest een automatische afwijzing.

‘Wat eerst een inschatting was, werd een strikte grens.’

‘Wat eerst een inschatting was, werd een strikte grens’, stellen de onderzoekers. ‘Ondertussen verloren minder meetbare factoren aan invloed, zoals lokale tekorten aan talent of de belofte van uitzonderlijke kandidaten die niet in het algoritme pasten.’ En omdat de organisatie de automatisch afgewezen kandidaten uit het oog verloor, wist ze op een gegeven moment ook niet meer welk potentieel ze misliep. ‘Leiders verwarden het gebrek aan bewijs met bewijs dat het systeem werkte. Zo escaleert eerlijkheid: niet door dramatische mislukkingen, maar door een langzame, onzichtbare verdringing van alternatieve perspectieven.’

> Hoe dit te voorkomen?

Leiders kunnen deze escalatie volgens de onderzoekers voorkomen door eerlijkheid te beschouwen als ‘iets dat je continu moet evalueren, en niet slechts als een eenmalige oefening. Plan regelmatig evaluaties in waarbij datawetenschappers, HR-medewerkers, managers en juridische teams echte sollicitatiegevallen naast de modeluitkomsten bekijken en zich afvragen of het systeem nog steeds de huidige prioriteiten weerspiegelt. Maak het technisch eenvoudig om drempelwaarden, gewichten en data-inputs aan te passen als er aanwijzingen zijn voor afwijkingen of onbedoelde effecten.’

‘Beschouw eerlijkheid als iets dat je continu moet evalueren, en niet slechts als een eenmalige oefening.’

Kijk bijvoorbeeld naar hoe IBM dat doet, adviseren ze. Big Blue biedt teams concrete tools zoals AI Fairness 360 om modellen te evalueren aan de hand van meerdere eerlijkheidsmaatregelen, afwegingen te identificeren en ‘wat-als’-tests uit te voeren – bijvoorbeeld om te zien hoe een strengere drempelwaarde of nieuwe data-input de resultaten voor verschillende groepen beïnvloedt. ‘De waarde van deze tools ligt niet in het feit dat ze een model voor eens en voor altijd als eerlijk verklaren; maar ze houden de eerlijkheid in de loop van de tijd inspecteerbaar’, schrijven ze. En de risico’s van het A.I.-gebruik dus binnen de perken.

Lees ook

Hoofdredacteurbij Werf&

Peter Boerman

Hij heeft eigenlijk nog nooit een vacature uitgezet. En meer sollicitatiegesprekken gevoerd als kandidaat dan als recruiter of werkgever. Toch schrijft Peter Boerman alweer een jaar of 10 over weinig anders dan over de wondere wereld van werving en selectie, in al zijn facetten.
  • Leave behind a comment

Onze partners Bekijk alle partners

Meer informatie