Deel I: Bias in recruitment, hoe staat het ervoor?

Discriminatie is ook in recruitment een hot topic. Hoe groot is het probleem van discriminatie en bias in recruitment en hoe lossen we het op? In de serie ‘Bias in recruitment’ staat Recruitment Tech stil bij dit onderwerp en hoe tooling hierin een belangrijke rol kan spelen.

Bias en discriminatie in werving en selectie

In de Recruitment Tech Guide 2020 stonden we, met vier experts, uitgebreid stil bij bias in recruitment. Onder leiding van de oprichter van Recruitment Tech, Martijn Hemminga, discussieerden Najat Saidi, Bas van de Haterd, Gerard Mulder en Pascalle Ligtenberg, ieder vanuit een andere invalshoek, over discriminatie in werving en selectie en hoe tooling kan helpen dit uit de wereld te krijgen.

Martijn Hemminga, Najat Saidi, Bas van de Haterd, Gerard Mulder, Pascalle Ligtenberg, Recruitment Tech Guide 2020, Bias in recruitmentWanneer spreken we van bias en wanneer van discriminatie?

Najat: “Ik heb het niet zo snel over discriminatie maar over vooroordelen. Iedereen heeft ze en het is belangrijk dat je je daar bewust van bent. Ik begeleid wervings- en selectietrajecten. Dan zie je tijdens de selectiegesprekken, maar ook ervoor, wat voor biases er ontstaan. Ik heb het zelfs op topniveau en bij assessmentsbureau gezien, dus het is een groot probleem. We moeten er echt wat mee, de arbeidsmarkt is veranderd en als je er nu als organisatie niets mee doet, mis je de boot.”

Artikel gaat verder onder de poll.

Bas: “Discriminatie is misschien 5 tot 10% van het probleem op de arbeidsmarkt, onbewuste vooroordelen zijn 90% van het probleem. Discriminatie kan je eigenlijk niet wegkrijgen, ik ken partijen die het ook bikkelhard toegeven.  Zij geven aan dat ze zoveel problemen met Marokkaanse jongeren hebben gehad, die nemen ze niet meer aan. Die partijen heb je, maar dat is gelukkig een fractie. Het grootste probleem is de onbewuste vooroordelen. Als mensen denken dat ze niet discrimineren, sluiten ze ook de onbewuste vooroordelen voor zichzelf uit. Dat is gewoon niet zo.“

Pascalle: “Ik kom regelmatig recruiters tegen die vinden: ‘dit is mijn job, ik kan dit wel’. De bewustwording rondom vooroordelen of bias is er wel, maar er valt tegelijkertijd ook nog veel te winnen.”

Bas: “Je ziet dat veel organisaties er ook echt wat mee willen doen, maar je hebt ook direct een tegenbeweging die zegt: ‘ach dit is weer de volgende hype, ik selecteer al jaren gewoon de beste’.”

Gerard: “Ik hoor dat dus totaal niet, ik hoor juist het tegenovergestelde. Veel organisaties die ik spreek zijn juist bezorgd of ze de juiste mensen selecteren en of er biases sluipen in dit project. Het is gewoon een heel complex probleem. Een groot deel van de bias ligt in onze taal. Recruitment begint met semantiek, want je begint met een vraag, de vacature, en een antwoord, het profiel. Hoe je je uitdrukt is met taal. Niet alleen in die taal zit bias, maar ook in hoe je die taal weer interpreteert. Een simpel voorbeeld: wij hebben onderzoek gedaan in Amerika en daar bleek uit dat vrouwen minder snel reageren op vacatures waarbij ze niet voldoen aan alle criteria, terwijl mannen dat wel gewoon doen. Mensen kunnen dus zichzelf ook bias opleggen.”

Zijn we al zover dat we de bias 100% terug kunnen brengen?

Pascalle: “Nee, maar je moet ook niet alleen vanuit de werkgeverskant kijken. Een kandidaat wil natuurlijk ook zien waar hij of zij terecht gaat komen en dat kan niet als je alles automatiseert.”

Bas: “En volgens de wet mag een kandidaat eisen dat een mens naar de genomen beslissing kijkt. Dus je mag een volledig geautomatiseerd algoritme hebben, maar volgens de GDPR heb je het recht te eisen dat een mens er alsnog naar kijkt.”

Martijn: “Bij Amazon is dit toch helemaal fout gegaan?”

Bas: “Daar is niet heel veel over naar buiten gekomen, maar wat duidelijk is geworden is dat hun algoritme getraind is om de beste medewerkers te vinden. Wat ik heb kunnen vaststellen is dat salaris aan kwaliteit is gekoppeld. Al hun programmeurs zijn natuurlijk de werknemers met de hoogste salarissen en dat zijn vrijwel allemaal mannen. Daarom is het algoritme gaan zeggen: mannen zijn beter.”

Gerard: “Het ligt wel iets genuanceerder. Het algoritme van Amazon is ‘gevoed’ met informatie zoals Amazon het eerder al deed. Dus ze hebben het systeem geleerd om te selecteren zoals de organisatie zelf al deed. Ze wilden meer diversiteit, maar ze creëerden dus het omgekeerde.”

In het tweede artikel in de serie ‘Bias in recruitment’ staan we stil bij bias in technologie: hoe staat het ervoor? Dit artikel verschijnt begin september op de website.

Recruitment Tech Guide 2020 nu voor slechts €15,-

Recruitment Tech Guide 2020

Bovenstaand interview verscheen in z’n geheel in de 100 pagina’s tellende Recruitment Tech Guide 2020, die je nu met korting én gratis Landscape scoort.. Benieuwd naar de rest van de interviews, achtergrondverhalen en tips & tricks op het gebied van recruitment? Het 2020-jaarboek is hier te bestellen voor slechts €15,00 én geen verzendkosten!

De Recruitment Tech Guide 2020 is een handzaam A5-jaarmagazine met 100 pagina’s vol trends op het gebied van recruitmenttechnologie, achtergronden, interviews en een overzicht met leveranciers van recruitmenttechnologie in Nederland en België. Bestel hier direct jouw exemplaar en ontvang:

  • 100 pagina’s Recruitment Tech Guide met 5 euro korting
  • Gratis: Landscape op A2 formaat
  • Gratis: Laptop-sticker: I’m not a recruitment robot

Blijf op de hoogte met de e-mail update

Ontvang twee keer per maand de e-mail update met het laatste nieuws op gebied van recruitmenttechnologie. En maak kans op vrijkaarten voor de 6e editie van het Recruitment Tech Event op donderdag 19 november 2020. 


    Ontvang naast de wekelijkse update ook e-mail alerts van nieuwe berichten in één of meerdere categorieën.

LAAT EEN REACTIE ACHTER