Algoritmes zijn niet neutraal (en mensen ook niet)

Bas van de Haterd Op 19 januari 2017
Gem. leestijd 3 min 116x gelezen
Deel dit artikel:

big-data-1Algoritmes zijn niet neutraal stelt dit artikel op HBR. Het lijkt een aantijging tegen het gebruik ervan om CV’s te screenen. Vorig jaar schreef personeelslog hier ook al over, met de opmerking dat steeds meer partijen er gebruik van maken. Iets dat vervolgens weer in twijfel getrokken werd. Of het nu gebruikt wordt of niet, we moeten ons bewust zijn van de implicaties. Echter, we moeten er wel realistisch naar kijken, want algoritmes zijn faalbaar, omdat mensen dat zijn.

Een algoritme is zo goed als we willen dat het is, waarbij veel mensen in mijn optiek minder goed zijn. Menselijk falen accepteren we, maar technologisch falen niet. Gelukkig kan het ook anders.

2 soorten algoritmes

In de basis zijn er op dit moment twee soorten algoritmes die we kunnen onderscheiden. De leren en de statische. De statische is wat iedereen kent. Indien A dan B zeg maar. Indien functie-titel is niet gelijk aan ‘account manager’ dan afwijzen. Dat is door een mens bedacht. Laat geen ruimte voor de menselijke kant van ‘interpretatie’. Dus ‘account manager’ kan ook ‘accountmanager’ zijn of ‘vertegenwoordiger’.

De lerende algoritmes beginnen met een basis, maar werken met een zogenaamd neuraal netwerk dat gebaseerd is op het menselijk brein. Het leert van eerdere beslissingen. Een beetje zoals een junior recruiter in zijn eerste weken in een nieuwe functie leert welke andere titels hetzelfde betekenen. Welke aspecten nog meer van belang zijn. Een lerend algoritme leert van het menselijke gedrag.

In beide zit er een heel zwak element: de mens.

Twee gerechtelijke algoritmes

Om een idee van de risico’s te geven leg ik twee casussen van twee algoritmes naast elkaar die een rechter moeten nadoen. De één was gebaseerd op de wet en alle jurisprudentie. De ander kende ook alle andere gegevens van de verdachten.

Het systeem dat volledig gebaseerd was op de wet en de kale jurisprudentie scoorde boven de 90% van alle rechtelijke uitspraken en bij de andere 10% waren er ‘op zijn minst twijfelachtige besluiten’ genomen. Een enkele zaak is na aanleiding van het algoritme zelfs herzien.

Het systeem waar alle informatie bij gebruikt werd, was racistisch en ging donkere mensen een hogere kans op veroordeling geven.

De conclusie van de media was dat algoritmes onbetrouwbaar waren voor rechtelijke uitspraken. Misschien dat we ons moeten afvragen of mensen niet onbetrouwbaar zijn.

CV’s screenen

Wanneer we dus algoritmes gaan inzetten voor het screenen van CV’s moeten we ons afvragen op basis waarvan we ze laten leren. Onderzoek, zoals ook in het HBR artikel staat’ wijst uit dat bij exact dezelfde CV’s Amerikaanse recruiters eerder voor een ‘blanke’ dan een ‘donkere’ naam kiezen.

Een in 2015 op de HR Hackathon ontwikkelde ‘bias tracker’ liet zien welke ‘vooroordelen’ er in elke selectie zitten. Dat kunnen hele logische zijn (voor een HBO functie minimaal HBO niveau vragen bijvoorbeeld), maar ook hele vreemde (zoals ook op MBO functies HBO de voorkeur geven, zoals bij een van de cases het geval bleek). Dan weet je welk vooroordeel je recruiters hebben en kan je het er over hebben. Is het logisch, acceptabel of niet?

De juiste parameters

Een lerend algoritme kan je ook enkel toegang geven tot de zaken die er toe doen zeg maar. Je kan aangeven dat het algoritme enkel mag leren op basis van opleiding en ervaring bijvoorbeeld. Dan kan het dus niet mensen gaan ‘uitselecteren’ op basis van leeftijd, geslacht of afkomst.

Het interessante is dat je dat wel een algoritme kan leren, maar een mens niet. Het is namelijk niet mogelijk om niet te zien wat je eenmaal gezien hebt en het is onmenselijk om onze vooroordelen uit te zetten. Die maken ons tot wat we zijn. Er bewust mee om gaan is een mogelijkheid, maar beter is nog om een computer die deze vooroordelen niet heeft dat deel van het werk te laten doen.

Conclusie

Ik ben een groot voorstander van het gebruik van algoritmes in de selectie van kandidaten. Wel moeten we dan heel goed bedenken op basis waarvan deze gaan werken, wat we ze wel en niet laten zien en hoe we kunnen valideren dat ze goed ontwikkelen. Dat ze niet alle zwakheden die mensen hebben ook meenemen.

Tags:
Deel dit artikel:

Premium partners Bekijk alle partners