Inclusief assessen gaat erover dat elk talent meetelt én meedoet en op een eerlijke manier met elkaar vergeleken kan worden. Discriminatie in sollicitatie gaat niet alleen over huidskleur, geslacht, achtergrond of leeftijd. Veelal onbewust worden sommige talenten ten onrechte verkozen boven andere eigenschappen. Of is de e-assessment niet toereikend om talent juist te kwalificeren. De toolkit die je gebruikt doet er toe. Maar hoe scheidt je kaf van koren? Welke vragen moet je als verantwoordelijke inkoper stellen?
Verdient een oplossing het vertrouwen?
Hoe verdient een oplossing het vertrouwen van de inkoper van recruitmenttechnologie? Vergelijk het met een andere situatie. Stel dat je de verantwoordelijkheid draagt over een survivaltocht in de woestijn met een groep. Je twijfelt over welke auto je hiervoor wilt kopen. Waar moeten de fabrikanten aan voldoen?
- Deugdelijk – Een goede langdurige goede reputatie in het zelfstandig ontwikkelen van motoren, onderdelen en carrosserie.
- Verantwoordelijk – De fabrikant heeft de techniek zelf in huis. Het is geen schimmig spel van
- Betrouwbaar – De fabrikant maakt auto’s die bewezen hebben te blijven
- Valide – De auto ziet er niet alleen leuk uit in een showroom langs de A2, maar presteert ook daar waar er gepresteerd moet worden. Hier de woestijn.
- Transparant – De onderdelen zijn kenbaar en leverbaar en sluiten aan bij standaarden op locatie: een monteur kan de motorkap opentrekken en de auto repareren.
Zonder deze kwaliteitskenmerken is een auto niet geschikt voor de tocht. Als dit de kwaliteitseisen zijn voor een avontuurlijke vakantie, waarom zou het dan anders zijn voor recruitment? Als poortwachter van de organisatie draag je een enorme verantwoordelijkheid. Zou je niet dezelfde gouden standaarden moeten hanteren?
De vragen die je altijd moet stellen
-
De tool moet iedereen van 8 tot 80 een eerlijke kans geven ongeacht opleiding
De meeste tests en tools gebruiken complexe taal of zijn ingewikkeld om te begrijpen. Voorbeelden zijn competentietests als verbale intelligentie (analogieën) of games met ingewikkelde spelachtige elementen waarvoor de instructie in feite al een assessment is. Andere tests worden te snel te moeilijk, met uitval als gevolg. Hierdoor scoren mensen met bepaalde achterstanden onterecht veel lager. Niet-talige tests die onafhankelijk van kennis en opgedane skills het ware talentpotentieel meten, verdienen de voorkeur indien je iedereen een eerlijke kans wilt geven.
Stel deze vraag aan je test-leverancier:
- Kan ik normcijfers krijgen voor verschillende leeftijdsgroepen en opleidingsniveaus?
2. De tool moet bias door gender en cultuur zo goed als mogelijk uitsluiten
Alle gangbare tests en tools die in het westen op de markt zijn, zijn gefinetuned op de westerse hoog opgeleide student. Veel van de keuzes in deze tests pakken ongelukkig uit voor mensen met andere achtergronden. Dit is het beste te zien in de grote gaps in IQ tussen verschillende culturen. Een resultaat van de verschillen in schoolsystemen. Heel simpel: heel veel Lego-en als kind geeft je een voorsprong op figuratief redeneren. Maar betekent dat dan dat als je niet hebt ge-Lego’t dat je dan niet intelligent bent?
Persoonlijkheidstests laten enorme grote verschillen zien tussen mannen en vrouwen. Wat mensen van verschillende culturen over zichzelf zeggen in domeinen als extraversie, consciëntieusheid of dominantie verschilt sterk. Games die claimen sociale competenties als empathie te meten of bijvoorbeeld risicogedrag leiden tot sterke bias, omdat deze constructen voor een aanzienlijk deel het product zijn van je sociaal-culturele achtergrond. Hierdoor vallen veel tests die leuk zijn om te doen, ‘face validity’ hebben omdat ze zo direct lijken te meten wat je wilt weten, of zo leuk zijn om te doen allemaal af. E-assessments die daadwerkelijk bias uitsluiten meten enkel de basale executieve functies op een eenvoudige, maar niet te ‘speelse manier’. Dat zijn de cognitieve hersenfuncties die universeel aanwezig zijn bij alle mensen met alle achtergronden en de enige bewezen universele voorspellers voor toekomstig gedrag.
Stel deze vraag aan je leverancier: (Hoe) kun je bewijzen dat er geen gender of cultuurbias in jullie tests zit?
3. Talent en aanleg moeten altijd vertaald kunnen worden naar de relevante context
Tests meten iets wat je niet kan zien en voorspellen hiermee gedrag. Het is in deze vertaling van cognitie naar context waar veel in semantiek verloren gaat. En gewonnen kan worden. Containerbegrippen als ‘learning agility’, ‘netwerken’, ‘klantgerichtheid’ of ‘creativiteit’ zijn anders voor een accountmanager dan voor een wijkagent. Dit klinkt triviaal, maar dat is het niet. De meeste gangbare tools doen wel degelijk generieke uitspraken over dergelijke competenties. Zorg er dus voor dat de scores van talenten worden geplaatst binnen die specifieke werkcontext. Zo match je unieke intelligentie met een unieke werkcontext.
Stel deze vraag aan je test-leverancier: Kun je me voor de constructen die jullie meten vertellen hoe deze tot uiting komen in de verschillende rollen die ik zoek?
4. De tool moet je échte talent meten, niet wat je wilt zijn of hoe je over wilt komen
Heel veel reguliere tests, zoals de BIG5 / OCEAN persoonlijkheidsvragenlijsten, drijfverentests, situational judgement games of games die bijvoorbeeld creativiteit of impulsiviteit of sociale vaardigheden meten, zijn gebaseerd op de aanname dat de deelnemer er geen belang bij heeft om op een bepaalde manier over te komen: Er wordt geen rekening gehouden met oefenen, de kandidaten vullen de test zogenaamd in hoe ze echt zijn en daarna wordt er een match bepaald. Hier is in de relatie tussen werkgever en potentiële werknemer natuurlijk nooit sprake van. Iemand die solliciteert op een commerciële buitendienst-functie weet uiteraard wel hoe ze extravert moet overkomen. Het is geen rocket science om te bedenken als accountant hoe je weinig impulsief of juist conservatief moet overkomen bij een game. Sociale wenselijkheid is een gigantisch probleem en voor alle grote tests zijn er oefenplatforms en handleidingen beschikbaar, wat ook het risico op fraude vergroot.
Stel deze 3 vragen
- Hoe weet ik zeker dat de kandidaat zich niet voordoet als iemand anders?
- Is er een handleiding te verzinnen voor de test?
- Leidt veel oefenen tot een verbeterde score?
5. De tool moet wetenschappelijk best practice zijn, want alleen zo heeft het waarde
Alle tools en tests claimen betrouwbaarheid. Ook ‘validiteit’ wordt universeel geclaimd door alle testuitgevers, van traditioneel tot en met gamified. Dit kan nooit, want er is niet zoiets als 1 validiteit. Het moet telkens weer getoetst worden in een nieuwe context, gedemonstreerd en overlegd worden. ‘Oeh ingewikkeld’, denk je nu misschien. Of ‘dat zal bij deze partij toch wel goed zijn?’. Helaas. Zo zijn veel games gevalideerd tegen tests als Cantab, die bedoeld zijn om problemen te detecteren bij patiënten, niet om verschillen in normaal functionerende individuen te duiden waardoor ze ongeschikt zijn voor talentherkenning en -ontwikkeling. Als inkoper van recruitment-technologie mag je van je leverancier eisen dat de gebruikte statistische modellen geheel kenbaar en in werking en doelmatigheid uitlegbaar aan partner en individu zijn, ook in lijn met AVG/GDPR. Alle validiteit cijfers dienen dus continu te worden doorgerekend en gemonitord en gedeeld. Alleen zo kan de tool van blijvende waarde zijn voor beide kanten van de selectie-, interview- of gesprekstafel.
Stel deze 2 vragen
- Wat is de test-hertest betrouwbaarheid van jullie tests?
- Wat is de voorspellende waarde van jullie test als het gaat om de claim die jullie maken met betrekking tot het doel van de test?
6. De tool moet van blijvende waarde zijn voor het individu
Een assessment is niet zomaar een testje. Het is een investering van een individu om iets te bereiken. Een individu met ambities, maar ook angsten en onzekerheden. Hoe mooi zou het zijn als die test van blijvende waarde zou zijn, niet alleen om de baan te krijgen, maar ook om het dagelijks gedrag aan te passen? En productiever te werken, vitaler te worden? De e-assessments van de toekomst maken sustainable talent management mogelijk. Ze genereren relevante, valide, betrouwbare en stabiele data die niet enkel bij instroom van waarde zijn, maar juist in de hele talent lifecycle. Dus ook bij doorstroom en uitstroom. Laten we dus snel afscheid nemen van lollige wegwerptestjes die zelfs het doel waarvoor je ze inkoopt niet eens dienen.
Stel deze twee vragen aan je test-leverancier:
- Wat heeft de kandidaat aan jullie test?
- Is de test ook geschikt voor andere doeleinden in de employee lifecycle?
Kijk 18 oktober live naar de e-Assessment Show 2022
Wat zijn de laatste e-assessments trends? Welke rol spelen e-assessments in het oplossen van krapte op de arbeidsmarkt? Deze vragen worden dinsdagochtend 18 oktober besproken in de online live e-Assessment Talkshow. Eric Castien van BrainsFirst en Diddo van Zand van Ixly schuiven aan de tafel bij host Martijn Hemminga, oprichter van Recruitment Tech Network, om het over de toekomst van e-Assessments te hebben. Schrijf je gratis in via deze link.
Dr. Ilja Sligte en Andries van der Leij zijn beiden verbonden aan de Universiteit van Amsterdam en co-founders van BrainsFirst. De cognitieve neurowetenschappers zijn beiden opgeleid als psycholoog en passen sinds 2013 neuroscience en AI toe op talent management in HR en topsport.