Op 1 augustus 2024 treedt de Europese AI Act officieel in werking. AI-gestuurde recruitmenttools vallen binnen de categorie ‘hoog risico’ en vragen om de nodige voorbereiding. We hebben 7 stappen op een rij gezet.
Prioriteiten weerspiegelt
“We hebben nu een wettekst die de prioriteiten van het parlement weerspiegelt”, aldus Brando Benifei, co-rapporteur van de baanbrekende wet, tegenover Recruitment Tech. “De focus ligt nu op de implementatie en naleving door bedrijven en organisaties. We werken ook al aan verdere wetgeving voor de volgende termijn, zoals een richtlijn over AI en arbeidsomstandigheden.
Recruitmenttools met een hoog risico
AI-gestuurde recruitmenttools vallen binnen de categorie ‘hoog risico’. De regulering benadrukt specifiek het risico van recruitmentsystemen, vanwege de gevoelige persoonsgegevens die ze gebruiken. “Sommige systemen bepalen wie toegang krijgt tot scholing of wie wordt aangenomen”, aldus de Europese Commissie. “Andere worden gebruikt voor wetshandhaving, grenscontrole, rechtspraak en democratische processen.” Biometrische systemen voor identificatie, categorisering en emotieherkenning worden ook als riskant beschouwd.
Wat zijn de ‘hoogrisico’ AI-systemen?
Hoogrisico AI-systemen omvatten toepassingen die aanzienlijke gevolgen kunnen hebben voor de rechten en vrijheden van individuen. In de context van recruitment kunnen dit bijvoorbeeld systemen zijn die worden gebruikt voor:
- Het plaatsen van gerichte vacatures.
- Het analyseren en filteren van sollicitaties.
- Het evalueren van kandidaten.
- Beslissingen over arbeidsvoorwaarden, promoties en ontslagen.
- Het toewijzen van taken op basis van individueel gedrag of persoonlijke kenmerken.
- Het monitoren en evalueren van prestaties en gedrag van werknemers.
Tref de juiste voorbereidingen
Voor HR-professionals en organisaties die hoogrisico AI-systemen gebruiken, zijn er specifieke verplichtingen waaraan voldaan moet worden. Deze verplichtingen zijn ontworpen om de risico’s van vooroordelen, discriminatie en schendingen van privacyrechten te minimaliseren. Tref dus de juiste voorbereidingen; we hebben er 7 op een rij gezet.
1. Begrijp wat er binnen de reikwijdte valt
Het uitvoeren van een audit van zowel gebruikte als geplande tools is een cruciale eerste stap. Dit moet zowel het gebruiksscenario als een eventuele toekomstige EU-verbinding bekijken om de tool binnen het territoriale bereik van de wetgeving te brengen.
2. Identificeer wat er moet veranderen
AI-systemen kunnen al worden gebruikt in risicovolle gebieden zoals werving. Werkgevers moeten bestaande praktijken en processen begrijpen en nagaan of er iets moet veranderen om te voldoen aan de AI-verordening, wat een belangrijke stap zal zijn.
3. Werk beleid en procedures bij
De verplichtingen voor gebruikers vereisen een aantal proactieve stappen – zoals de noodzaak van registratie of ervoor zorgen dat degenen die toezicht houden op de relevante tools getraind zijn. Interne beleidslijnen moeten deze vereisten weerspiegelen. Het is waarschijnlijk dat er al gedetailleerde gegevensbeschermingsbeleidslijnen bestaan die de verplichtingen onder de AVG aanpakken. Het is belangrijk om de overlap tussen deze processen en die onder de EU AI-verordening te overwegen.
4. Training en bewustwording
Begrijpen degenen die AI-systemen gebruiken hoe ze de tools op de juiste manier moeten gebruiken en wat hun verplichtingen zijn onder de nieuwe regels?
5. Voer due diligence uit
Zullen nieuwe en bestaande technologieproviders – die uiteraard onderworpen zullen zijn aan de strengere eisen aan het eind van de keten – compliant zijn? Moeten contracten worden aangepast?
6. Informeer werknemersvertegenwoordigers
Onder de wet moeten werknemers en hun vertegenwoordigers geïnformeerd worden dat zij onderworpen zijn aan een AI-systeem.
7. Begrijp de AI-voorkeuren
We hebben eerder geschreven over het belang van uitlegbaarheid en het begrijpen van de voorkeuren die door AI worden gegenereerd. Weten in hoeverre een individuele AI-beslissing kan worden uitgelegd, zal een belangrijk onderdeel zijn van het bestrijden van het risico op bias bij het gebruik van een AI-systeem.
















