Arbeidsmarktdiscriminatie & algoritmes (2/8): hoe algoritmes ongewenst onderscheid kunnen maken

Duidelijk is dat de werving en selectie van werknemers ingrijpend is veranderd door de inzet van online recruitmenttechnologie. In verschillende fases – CV-matching, assesments, games, persoonlijkheidstests, videosollicitaties met gezichtsherkenningssoftware – van het wervings- en selectieproces wordt recruitmentsoftware steeds vaker ingezet. Om kandidaten (semi-)automatisch te selecteren en beoordelen op geschiktheid. Een centrale bouwsteen in veel van dit soort recruitmenttechnologie wordt gevormd door algoritmes. Maar wat is een algoritme nu eigenlijk? En waarom kan het gebruik ervan tot onbedoeld onderscheid leiden?

Discriminatie op de arbeidsmarkt en algoritmes

In een achttal artikelen brengen we een belangrijk onderwerp in kaart, discriminatie op de arbeidsmarkt en de rol van algoritmes bij het wervingsproces. In het tweede artikel gaan we dieper in op de werking van algoritmes en hoe ze in recruitmentsoftware verboden onderscheid kunnen maken.

Vooringenomenheid en discriminatie

In het eerste artikel in deze serie gaven we een overzicht van het gelijkebehandelingsrecht en hoe ook algoritmes in recruitmentsoftware – onbedoeld – tot vooringenomenheid en discriminatie kunnen leiden. Ook lieten we zien dat werkgevers en arbeidsbemiddelaars zelf juridisch verantwoordelijk zijn voor de gebruikte recruitmentsoftware. Zij kunnen die verantwoordelijkheid niet afschuiven naar de vervaardigers van deze software. In dit tweede artikel gaan we dieper in op algoritmes en hun rol in recruitmentsoftware.

Recept voor maaltijd

In essentie is een algoritme een eindige reeks instructies voor het bereiken van een doel. Daarmee is een recept voor het koken van een maaltijd eigenlijk ook een algoritme. Maar de term algoritme zal toch vaker met getallen, computers en software geassocieerd worden. En inderdaad worden algoritmes gebruikt om informatie te verwerken en computerprocessen te automatiseren. Wiskunde wordt ingezet voor het in een model beschrijven van een probleem, wat daarna de oplossingsruimte bepaalt. Het algoritme is vervolgens een slimme manier om daarbinnen de best mogelijke oplossing te vinden. Een goed algoritme is correct en efficiënt. Dat laatste betekent dat de oplossing met zo min mogelijk stappen – zo min mogelijk rekenkracht – gevonden wordt.

Netflix en Tinder

Een paar voorbeelden uit ons dagelijks leven maken nog meer inzichtelijk wat algoritmes zijn. Neem een algoritme voor persoonlijke aanbevelingen op websites, bijvoorbeeld Netflix. Op basis van kijkgedrag rangschikt en beveelt het algoritme films aan die iemand waarschijnlijk leuk zal vinden, doordat het scores toekent aan bijvoorbeeld hetzelfde genre of dezelfde regisseur of acteurs. Algoritmes kunnen ook scores toekennen aan mensen, zoals bij datingsites gebeurt. De bekende datingapp Tinder geeft gebruikers een score op basis van hoeveel likes een gebruiker van andere gebruikers krijgt. De score is ook hoger als de like afkomstig is van een gebruiker die zelf een hoge score heeft. Daarnaast kent Tinder scores toe aan onder andere biografie, locatie en leeftijd.

Vier kerntaken

Voor een goed inzicht is het ook goed te weten dat er grofweg vier kerntaken zijn die een algoritme kan uitvoeren. Prioriteren, ofwel het maken van een rangschikking, bijvoorbeeld het selecteren van de snelste route door een routeplanner. Classificeren, ofwel het indelen in categorieën. Bijvoorbeeld advertenties op de computer bieden iemand babyvoeding aan, omdat die persoon geclassificeerd is als jonge moeder. Associëren, bijvoorbeeld Amazon geeft je productaanbevelingen op basis van eerdere aankopen. En tenslotte filteren, ofwel het toevoegen of weglaten van relevante informatie. Voor huizenkopers is het bijvoorbeeld wel relevant of er een tuin is en hoe groot deze is, maar de koper hoeft niet te weten of er narcissen of orchideeën in de tuin staan.

Als-dan of zelflerend

Daarnaast is het belangrijk te onderscheiden tussen algoritmes met een simpele ‘als-dan’ structuur en algoritmes die op basis van eerder behaalde resultaten en trainingsdata autonoom verbanden kunnen leggen en nieuwe beslisregels kunnen maken, zelflerende algoritmes dus.

Een voorbeeld van een algoritme met een als-dan structuur is bijvoorbeeld: als je jonger bent dan 18, mag je bij het autoverhuurbedrijf geen auto huren, als je 18 of ouder bent, mag dat wel.

Een mooi voorbeeld van een algoritme dat zelf verbanden legt – dat velen uit eigen ervaring kennen – is een spamfilter op de computer. Dat algoritme is voorafgaand ‘getraind’ op basis van data – bijvoorbeeld met zinnen als ‘Claim uw welkomstbonus van € 8.300’ – om spam te herkennen en te onderscheiden van niet-spam. Vervolgens leert het zelflerende algoritme door feedback van de gebruiker continu bij en creëert het nieuwe beslisregels. Immers, iedere keer als een gebruiker een email in de spamfolder zet of terughaalt leert het algoritme van deze informatie om spamberichten beter te herkennen.

Bij het aannemen of afwijzen van een sollicitant door een HR-medewerker kan dit hetzelfde werken. Het algoritme leert steeds beter kandidaten te herkennen die de medewerker zelf ook zou hebben gekozen. Daarmee zijn we terug bij waar het in deze artikelen om gaat, de mogelijkheid dat recruitmentsoftware verboden onderscheid maakt tussen kandidaten.

Complexe verbanden

Het is het natuurlijk vrij duidelijk dat een algoritme met een als-dan structuur goed te controleren is op het al dan niet maken van verboden onderscheid. Maar bij zelflerende software is dat anders. Een zelflerend algoritme kan op basis van grote hoeveelheden data heel veel verbanden leggen. Verbanden die zo complex kunnen zijn dat ze niet meer ‘zichtbaar’ voor mensen zijn. Zo zou bijvoorbeeld een algoritme in de consumentendata van een elektronicazaak kunnen ontdekken dat er een verband is tussen de schermgrootte van een televisie die iemand koopt en hoelang iemand nodig heeft om de consumentenlening voor die televisie af te betalen. Een soortgelijk niet voor het ‘menselijk oog’ waarneembaar verband, kan ook bij recruitmentsoftware optreden, met misschien onbedoelde discriminatoire effecten, uitkomsten. Sterker nog, algoritmes kunnen vooringenomenheden (‘een vrouw is niet technisch) van mensen – misschien wel van die HR-medewerker die hierboven genoemd werd – herhalen, verbreden en zelfs verdiepen.

Weinig bewustzijn

Op dit moment lijkt er bij veel organisaties en recruiters nog weinig bewustzijn te zijn dat het het gebruik van (data gedreven) recruitmenttechnologie bij werving en selectie tot (onbedoelde) discriminatie en uitsluiting kan leiden. Jurisprudentie hierover ontbreekt ook nog. Maar dat betekent niet dat dit niet kan veranderen. De wetgever lijkt vastberaden arbeidsmarktdiscriminatie steviger aan te willen pakken, gezien ook het wetsvoorstel ’Wet toezicht gelijke kansen bij werving en selectie’, dat in artikel 1 van deze serie aan de orde kwam. Net als discriminatie door onbewuste vooroordelen is discriminatie door algoritmes vaak slecht zichtbaar Het gebrek aan zichtbaarheid betekent dat het extra relevant is om te begrijpen wat de oorzaken van discriminatie door algoritmes zijn.

Reputatieschade

Voor organisaties staat er bovendien veel op het spel. Arbeidsmarktdiscriminatie kan tot enorme reputatieschade leiden. En soms ook tot fors financieel nadeel, zoals onder meer Google , toen het een schikking trof van $11 miljoen wegens langdurige arbeidsmarktdiscriminatie (leeftijdsdiscriminatie).

In het volgende artikel gaan we dieper in op vooringenomenheid, bias, in recruitmentsoftware. Waarbij onder meer bias in het algoritme en bias in de data aan de orde komen.

Blijf op de hoogte met de e-mail update

Ontvang iedere dinsdag de e-mail update met het laatste nieuws op gebied van recruitmenttechnologie. En maak kans op online en offline vrijkaarten voor de 1e editie van het hybride event Recruitment Tech Case_Day op donderdag 3 november 2022 live vanuit Pathé Utrecht Leidscherijn. 


LAAT EEN REACTIE ACHTER