“We shape our tools and thereafter our tools shape us.” – Marshall McLuhan
Voor werkzoekenden vandaag is AI zowel poortwachter als rechter geworden: het screent cv’s, matcht kandidaten en maakt shortlists.
De belofte? Sneller en eerlijker werven.
Maar er gebeurde iets anders: algoritmes begonnen het verleden te herhalen, inclusief de vooroordelen. Getalenteerde kandidaten werden afgewezen – vaak in stilte. Recruiters misten sterke matches die ze nooit te zien kregen. En bedrijven liepen het risico te werven op basis van gebrekkige data, in plaats van potentieel.
Met de beste bedoelingen bouwden we het systeem. Maar nu grijpt de EU in en stelt de vraag: wie houdt toezicht op het algoritme?
Wanneer AI Bias Heruitvindt
AI wordt getraind op bestaande data. Dáár zit het probleem.
Als het verleden laat zien dat bepaalde genders, etniciteiten of cv-gaten werden genegeerd of ondergewaardeerd, leert het algoritme dat patroon te herhalen.
Een gedocumenteerd voorbeeld: een AI-wervingstool bij Amazon waardeerde cv’s met het woord “women” lager, omdat eerdere aanwervingen voornamelijk mannelijk waren.
Andere voorbeelden:
- Onderzoek van de University of Washington toonde aan dat AI-recruiters namen geassocieerd met “wit” 85% van de tijd bevoordeelden, terwijl namen geassocieerd met “zwart” slechts 9% kregen.
- Bloomberg testte ChatGPT met fictieve cv’s: Aziatische vrouwen werden 17,2% van de tijd hoog gerankt, tegenover 7,6% voor zwarte mannen – terwijl pariteit 12,5% zou moeten zijn.
- Een Harvard Business School-onderzoek meldde dat 88% van de werkgevers erkende dat hun AI-systemen gekwalificeerde kandidaten onterecht afwezen.
Wat gebeurt er nog meer?
- Niet-Europese namen leiden vaker tot automatische afwijzingen.
- Carrière-onderbrekingen (bijvoorbeeld door ouderschap of ziekte) worden aangemerkt als “inconsistent”.
- Passieve kandidaten worden gemist omdat ze niet de juiste buzzwords gebruiken.
Dat is geen fout. Dat is een patroon.
De EU AI Act: Verantwoording boven Automatisering
De EU AI Act (ingetreden op 1 augustus 2024) ging niet alleen over ChatGPT.
Het draaide om bescherming van mensen tegen stille bias bij cruciale levensbeslissingen – zoals werving, gezondheidszorg of kredietbeoordeling.
AI-tools die gebruikt worden bij werving moeten vanaf nu voldoen aan nieuwe regels:
✓ Uitlegbaarheid – Kandidaten hebben het recht om te weten waarom ze zijn afgewezen.
✓ Menselijk toezicht – Geen volledig geautomatiseerde, stille afwijzingen meer.
✓ Voorkomen van bias – Systemen mogen geen ongelijkheid versterken op basis van leeftijd, gender, etniciteit of cv-gaten.
Slim Bouwen. Menselijk Bouwen.
De toekomst van werven is niet anti-AI, maar pro-verantwoording.
Het gaat om transparante tools, intentioneel design en ethisch toezicht.
Bij Linkrs geloven wij dat technologie menselijke oordeelsvorming moet versterken – niet vervangen.
Benieuwd hoe je eerlijke en effectieve wervingsstrategieën bouwt in het AI-tijdperk?
Lees meer in onze blog of neem contact met ons op, wij helpen je graag bij deze transitie.