Overslaan naar inhoud
  • Volg ons
  •  +32 3 808 22 05 
LINKRS.BE
  • 0
  • Nederlands English (US) Français (BE)
  • Ons contacteren
  • Homepage
  • About us

    What We Do

    Contact us for any issue or question
    man in white dress shirt sitting beside woman in black long sleeve shirt

    Insights

    Who We Are

    Discover our culture and our values
  • Hiring Solutions

    Talent Acquisition

    Our Expertise

    Contingency 
    Recruiting

    ​

    Retained Search 

    ​

    Recruitment Process
    Outsourcing

    ​
    two women taking to each other while holding pensManagement Tips​
  • Get Hired

    Methods

    Discover our culture and our values

    Career advice

    They trust us since years

    Expertise

     
    Consulting & Strategy
    ​ ​Businessanalyse & Architecture
    ​ ​Project- Programmanagement
    ​ ​Testing QA
    ​ ​Product Management
    ​ ​Risk & Compliance
    woman in black jacket sitting beside woman in white blazerDiscover our blog 
  • Jobs
  • Insights
  • Contact
LINKRS.BE
  • 0
    • Homepage
    • About us
    • Hiring Solutions
    • Get Hired
    • Jobs
    • Insights
    • Contact
  •  +32 3 808 22 05 
  • Volg ons
  • Nederlands English (US) Français (BE)
  • Ons contacteren
  • Alle blogs
  • Our blogs
  • AI in Recruitment: Risico’s, Bias en de Nieuwe EU-Regels Uitgelegd
  • AI in Recruitment: Risico’s, Bias en de Nieuwe EU-Regels Uitgelegd

    Van belofte tot risico: dit is wat recruiters en kandidaten moeten weten over de EU AI Act.
    11 juli 2025 in
    AI in Recruitment: Risico’s, Bias en de Nieuwe EU-Regels Uitgelegd
    Younous Aza

    “We shape our tools and thereafter our tools shape us.” – Marshall McLuhan

    Voor werkzoekenden vandaag is AI zowel poortwachter als rechter geworden: het screent cv’s, matcht kandidaten en maakt shortlists.

    De belofte? Sneller en eerlijker werven.

    Maar er gebeurde iets anders: algoritmes begonnen het verleden te herhalen, inclusief de vooroordelen. Getalenteerde kandidaten werden afgewezen – vaak in stilte. Recruiters misten sterke matches die ze nooit te zien kregen. En bedrijven liepen het risico te werven op basis van gebrekkige data, in plaats van potentieel.

    Met de beste bedoelingen bouwden we het systeem. Maar nu grijpt de EU in en stelt de vraag: wie houdt toezicht op het algoritme?

    Wanneer AI Bias Heruitvindt

    AI wordt getraind op bestaande data. Dáár zit het probleem.

    Als het verleden laat zien dat bepaalde genders, etniciteiten of cv-gaten werden genegeerd of ondergewaardeerd, leert het algoritme dat patroon te herhalen.

    Een gedocumenteerd voorbeeld: een AI-wervingstool bij Amazon waardeerde cv’s met het woord “women” lager, omdat eerdere aanwervingen voornamelijk mannelijk waren.

    Andere voorbeelden:

    • Onderzoek van de University of Washington toonde aan dat AI-recruiters namen geassocieerd met “wit” 85% van de tijd bevoordeelden, terwijl namen geassocieerd met “zwart” slechts 9% kregen.
    • Bloomberg testte ChatGPT met fictieve cv’s: Aziatische vrouwen werden 17,2% van de tijd hoog gerankt, tegenover 7,6% voor zwarte mannen – terwijl pariteit 12,5% zou moeten zijn.
    • Een Harvard Business School-onderzoek meldde dat 88% van de werkgevers erkende dat hun AI-systemen gekwalificeerde kandidaten onterecht afwezen.

    Wat gebeurt er nog meer?

    • Niet-Europese namen leiden vaker tot automatische afwijzingen.
    • Carrière-onderbrekingen (bijvoorbeeld door ouderschap of ziekte) worden aangemerkt als “inconsistent”.
    • Passieve kandidaten worden gemist omdat ze niet de juiste buzzwords gebruiken.

    Dat is geen fout. Dat is een patroon.

    De EU AI Act: Verantwoording boven Automatisering

    De EU AI Act (ingetreden op 1 augustus 2024) ging niet alleen over ChatGPT.

    Het draaide om bescherming van mensen tegen stille bias bij cruciale levensbeslissingen – zoals werving, gezondheidszorg of kredietbeoordeling.

    AI-tools die gebruikt worden bij werving moeten vanaf nu voldoen aan nieuwe regels:

    ✓ Uitlegbaarheid – Kandidaten hebben het recht om te weten waarom ze zijn afgewezen.

    ✓ Menselijk toezicht – Geen volledig geautomatiseerde, stille afwijzingen meer.

    ✓ Voorkomen van bias – Systemen mogen geen ongelijkheid versterken op basis van leeftijd, gender, etniciteit of cv-gaten.

    Slim Bouwen. Menselijk Bouwen.

    De toekomst van werven is niet anti-AI, maar pro-verantwoording.

    Het gaat om transparante tools, intentioneel design en ethisch toezicht.

    Bij Linkrs geloven wij dat technologie menselijke oordeelsvorming moet versterken – niet vervangen.

    Benieuwd hoe je eerlijke en effectieve wervingsstrategieën bouwt in het AI-tijdperk?

    Lees meer in onze blog of neem contact met ons op, wij helpen je graag bij deze transitie.


    in Our blogs
    AI in Recruitment: Risico’s, Bias en de Nieuwe EU-Regels Uitgelegd
    Younous Aza 11 juli 2025
    Labels
    Onze blogs
    • Our blogs
    • Career Coach
    • Management Tips
    • Success Stories
    • Insights

    Subscribe to our newsletter

    Get all the latest news, blog posts and product updates from our company, delivered directly to your inbox.

    Thanks for registering!

    Subscribe
    Ontdekken
    • Startpagina
    • Jobs
    • Insights
    • Terms of use
    • Privacy Policy
    About us
    • Who we are
    • What we do
    Hiring
    • Hiring Solutions
    • Contingency
    • Retained
    • RPO
    Get Hired
    • Methods
    • Career Advice
    • Expertise
    • Vacancies
    •  
    logo linkrs in white with teal blue​

    Mercatorstraat 132 
    Anwerpen, Belgium

    • info@linkrs.be

    +32 3 808 22 05

    +31 172 799 777

    Follow us on linkedin

    Copyright © Linkrs 2025
    Nederlands | English (US) | Français (BE)
    Aangeboden door Odoo - De #1 Open source e-commerce

    We gebruiken cookies om je een betere gebruikerservaring op deze website te bieden. Cookiebeleid

    Alleen het essentiële Ik ga akkoord