Recruitment en AI: Is AI echt zo unbiased als we denken?

In een eerdere blog ‘Het Ontslag Algoritme’ schreef ik over één van mijn favoriete onderwerpen; namelijk AI binnen recruitment. Dat er tegenwoordig veel mogelijk is, blijkt wel uit Sigmund en het bestaan van ‘ontslag-algoritmes’. Soms roept de inzet van AI wat ethische discussies op, maar dat maakt het niet minder interessant! Eén van de (ethische) discussies die mij ook altijd triggert, is de inzet van AI tijdens sollicitatieprocessen (bijvoorbeeld door middel van assessments) om discriminatie te voorkomen. Zo zou AI geen onderscheid maken tussen man/vrouw, leeftijd, huidskleur en geloof. Het selecteert namelijk puur op hard-skills. Maar is AI werkelijk zo unbiased als wij denken? 

Laten we even teruggaan naar het begin: wat is een AI? AI, Artificial Intelligence, oftewel; kunstmatige intelligentie, is het concept waarbij machines denken als mensen. Het brein achter kunstmatige intelligentie is een technologie die machine learning heet. 
Machine Learning is dus leren door middel van het verwerken van data. En hoe meer data een machine krijg, hoe beter deze kan leren. Theoretisch gezien zou het mogelijk zijn om een machine te leren om kandidaten te selecteren op bepaalde skills. Hiermee zou de menselijke bias, die wij allemaal (on)bewust hebben, worden buitengesloten. Maar in de praktijk gaat dit toch lastiger dan verwacht.

Discriminerende data

Een super interessant voorbeeld waarom het in de praktijk toch lastiger blijkt dan het werkelijk is, komt naar voren in een blog van Marc van Meel. Een voorbeeld wat hij noemt gaat over Robert Moses. Moses was een bekend urban planner en heeft in de jaren 1920’s bruggen gebouwd in Amerika. Het was bekend dat Robert een racist was, maar dit zal nooit te zien zijn in zijn werk… toch? Fout! Bruggen werden lager gebouwd zodat bussen er niet onderdoor konden. En toentertijd zaten vooral mensen van allochtonen afkomst in bussen. Dus een brug was (on)bewust (deze discussie laat ik even in het midden) aan het discrimineren.

Het moraal van het verhaal: input (oftewel data) speelt een grote rol bij Machine Learning en kan (on)bewust biased kan zijn. Maar als wij heel realistisch zijn, is data uit het verleden (want van welke data moet een machine anders leren?) vaak wel discriminerend. Stel; als bedrijf heb je een assessment ontwikkeld die door middel van AI sterke potentiele leiders herkent. De doelgroep die je nodig hebt om dit assessment op te zetten, zijn competenties van leiders. Leiders zijn nu, en zeker in het verleden, grotendeels man. Dus de data waarmee Machine Learning leert, is voornamelijk gebaseerd op mannelijke leiderschapscompetenties.

En om een stapje verder te gaan; er is algemeen bekend dat mannen en vrouwen andere leidersstijlen hanteren en dus ook andere competenties hebben. Je kan je dus afvragen of het assessment niet onbewust aan het discrimineren is? Want mannen en vrouwen hebben vaak nou eenmaal andere leiderschapsstijl, maar dat maakt een vrouw niet minder goed dan een man (en vice versa!). Wij moeten ons dus wel bewust zijn van deze verschillen en deze ook omarmen. Er zijn immers verschillende wegen naar Rome.

AI voor assesments

Dat AI binnen recruitment niet zo voor de hand liggend is als lijkt, blijkt ook bij assessments die worden afgenomen bij een sollicitatieprocedure. Je neemt het assessment af bij een grote doelgroep, bijvoorbeeld;

  1. Kandidaten die in dienst komen en niet goed functioneren.
  2. Kandidaten die in dienst komen en goed functioneren.
  3. Kandidaten die niet in dienst komen en ook niet goed functioneren.
  4. Kandidaten die niet in dienst komen maar wél goed functioneren.

Je hebt dus vier verschillende groepen die je eigenlijk wilt meten om succes goed, en unbiased, te kunnen voorspellen tijdens het sollicitatiegesprek. Maar wij vergeten dat de helft van de doelgroep afvalt tijdens een sollicitatieproces; namelijk de mensen die niet in dienst komen. Hierdoor meet je alleen de mensen die wél in dienst zijn gekomen, waardoor de data (on)bewust wordt gevormd. Jammer, want het zou super interessant zijn om te weten hoe succesvol mensen zouden zijn geweest die niet in dienst zijn genomen. Dan zou je data dus wel compleet zijn. Wat wél mogelijk is, is het meten én voorspellen van de potentie op het moment dat iemand al in de organisatie is. Dan kan je meten met verschillende doelgroepen; laagvliegers, hoogvliegers en de gemiddelde werknemer.

Hoe moet het dan wel?

De conclusie is dus dat het inzetten van AI (en data!) vaak lastiger is dan in eerste instantie lijkt. Wil je als organisatie toch aan de slag met AI, hou dan rekening met onderstaande tips:

  • Zorg dat de organisatie zich bewust is van data. Er is met data ontzettend veel mogelijk maar dan moet het wel op de juiste manier ingezet worden. Bewustwording is hier de eerste stap in.
  • Formuleer duidelijk welke factoren je meetbaar wilt maken én waarom! Soms willen we iets meten (meten voor het meten) terwijl dit eigenlijk niet logisch is. Blijf dus de ‘waarom’-vraag stellen.
  • Zorg dat de data valide is en blijf constant de kritische vraag “meet de data écht wat jij als organisatie wilt weten?” stellen.
  • Wees niet bang om hulp van een expert in te schakelen, die kunnen met een kritische blik meedenken.

Natuurlijk zal je niet alle valkuilen kunnen wegnemen en dat is oké. Zolang jij je er maar bewust van bent, dan kun je pas echt unbiased werven!

Over de auteur Kimberly de Jager is Recruitment Specialist bij Timetohire – The Recruitment Success Company. Zij is gespecialiseerd in Recruitment Process Outsourcing (RPO) met een special interest in IT & tech.

De leukste banen binnen recruitment

Werken bij Timetohire

Ben jij op zoek naar een nieuwe uitdaging? Dan zijn wij op zoek naar jou. Klik hier om te zien welke functie jij bij ons kan vervullen.

Onze Vacatures