De HR-media zijn overspoeld met suggesties over hoe ChatGPT en soortgelijke tools gebruikt kunnen worden om workflows te stroomlijnen. Ideeën variëren van geautomatiseerde content generatie (vacatures, interview vragen, marketing content), tot verbeterde kandidaat screening en geautomatiseerde communicatie. Het ene zal meer zijn vruchten afwerpen dan het andere, maar één ding is zeker: Recruitment en HR behoren tot de vele industrieën die opgeschud, zo niet gerevolutioneerd, zullen worden door deze nieuwe generatie van AI-technologie.
Adoptie
Maar onlangs heeft Samsung, een wereldwijde technologiereus, het gebruik van ChatGPT verboden nadat medewerkers per ongeluk gevoelige informatie aan de chatbot hadden onthuld. Dit ongelukkige incident herinnert ons aan de mogelijke valkuilen bij het aannemen van nieuwe tools zonder grondige overweging. Nieuwe tools zoals ChatGPT en LLM’s (Large Language Models) grote impact kunnen hebben op recruitmenttechnologie. Echter, hun adoptie in HR-software brengt verschillende uitdagingen met zich mee. Hieronder belichten we zeven beperkingen en risico’s die gepaard gaan met het gebruik van LLM’s in de context van recruitment- en HR-technologie.
Beperkingen
Dit zijn de 7 beperkingen als het gaat om gebruik van LLM’s voor staffing:
1: Snelheid en kosten – De noodzaak van efficiëntie
LLM’s vereisen aanzienlijke rekenkracht en tijd voor taken zoals verwerking en matching, wat de kosten en verwerkingstijd voor organisaties die grote hoeveelheden documenten behandelen, verhoogt. Deze kosten en snelheidsbeperkingen zullen naar verwachting in de loop der tijd afnemen, maar het is nog steeds essentieel om deze uitdagingen aan te pakken voor efficiënte documentverwerking.
2: Hallucinatie – Wees op je hoede voor feitelijke valkuilen
LLM’s produceren soms tekst met feitelijk onjuiste informatie, ook wel ‘hallucinaties’ genoemd. Bij het verwerken van cv’s kan dit leiden tot output met informatie die niet in het oorspronkelijke document aanwezig was. Dergelijke onnauwkeurigheden kunnen verwarring veroorzaken en van invloed zijn op aanbevelingen voor vacatures.
3: Gebrek aan transparantie – De Big Black Box
LLM’s worden beschouwd als een Big Black Box omdat hun output niet transparant is, waardoor het moeilijk is om hun besluitvormingsproces te begrijpen. Dit gebrek aan duidelijkheid baart zorgen over de eerlijkheid en vooringenomenheid in de output die door op LLM’s gebaseerde tools wordt gegenereerd. Dit is met name verontrustend in het licht van de aankomende wetgeving over het gebruik van AI, die transparante openbaarmaking van rangschikkingcriteria in AI-algoritmen vereist.
4: Mogelijke vooringenomenheid – Oog voor diversiteit, inclusie en gelijkheid
LLM’s die getraind zijn op webteksten kunnen maatschappelijke en geografische vooroordelen overnemen. Vooringenomen reacties en perspectieven kunnen van invloed zijn op door LLM aangedreven recruitment-software en mogelijk in strijd zijn met wettelijke vereisten tegen discriminerende praktijken. Om te voorkomen dat vooroordelen invloed hebben op recruitmentbeslissingen, is voorzichtigheid geboden bij het gebruik van LLM-modellen. Verantwoordelijk gebruik van AI in werving is cruciaal om mogelijke vooringenomenheid te beperken en eerlijkheid te bevorderen.
5: Gegevensprivacy – Bescherming van vertrouwelijkheid
De omvang van LLM’s leidt er vaak toe dat bedrijven vertrouwen op API’s van derden, wat zorgen kan oproepen over gegevensprivacy. Persoonlijke informatie die wordt verwerkt met LLM-gebaseerde toepassingen kan worden opgeslagen op externe servers, wat mogelijk in strijd is met privacywetten. Zelfs als gebruikers toestemming geven, is het onduidelijk of de makers van LLM’s de persoonlijke gegevens die worden gebruikt voor continu training en updating van deze modellen daadwerkelijk kunnen wissen.
6: Gebrek aan controle – Op wankel terrein
Het gebrek aan transparantie en de evoluerende aard van LLM-modellen maken het voor ontwikkelaars moeilijk om structurele fouten of onverwachte gedragsveranderingen aan te pakken. Het oplossen van problemen en het herstellen van fouten worden daardoor uitdagend of zelfs onmogelijk.
7: Prompt-injectie – Bescherming tegen manipulatie
LLM-gebaseerde toepassingen zijn vatbaar voor prompt-injectieaanvallen, waarbij gebruikers de invoertekst kunnen manipuleren om LLM-instructies te wijzigen. Deze kwetsbaarheid brengt veiligheidsrisico’s met zich mee, vooral wanneer LLM-toepassingen rechtstreeks zijn gekoppeld aan kandidaten- of vacaturedatabases.
Optimaliseren
We zien veel kansen om recruitment- en HR-processen verder te optimaliseren met behulp van LLM’s en pleiten we voor een zorgvuldige benadering bij de adoptie van nieuwe technologie en staan we volledig achter het concept van “responsible AI”. Sommige van deze beperkingen zullen na verloop van tijd worden opgelost, terwijl andere mogelijk helemaal niet oplosbaar zijn en eenvoudigweg als beperkende factoren in het gebruik van LLM’s moeten worden beschouwd.
Auteur: Textkernel
Al twintig jaar loopt Textkernel consequent voorop bij het implementeren van AI-ontwikkelingen, en introduceert deze op een verantwoorde en volledig compliant manier op de markt. Aangedreven door GPT-3.5, staat Textkernel’s LLM Parser voor een baanbrekende samensmelting van Textkernel’s eigen branche-expertise met ChatGPT, een van de meest geavanceerde grote taalmodellen. Deze dynamische combinatie kondigt de volgende generatie in parsing technologie aan en biedt recruiters en HR-professionals ongeëvenaarde nauwkeurigheid, efficiëntie en inzicht in kandidaatgegevens.