« Nous façonnons nos outils, puis nos outils nous façonnent. » – Marshall McLuhan
Pour les chercheurs d’emploi d’aujourd’hui, l’IA est devenue à la fois gardien et juge : elle filtre les CV, fait correspondre les candidats et établit des listes restreintes.
La promesse ? Un recrutement plus rapide et plus équitable.
Mais une autre réalité est apparue : les algorithmes ont commencé à répéter le passé – y compris ses biais. Des candidats talentueux ont été rejetés, souvent en silence. Les recruteurs sont passés à côté de profils de grande qualité qu’ils n’ont jamais vus. Et les entreprises ont pris le risque de recruter sur la base de données imparfaites plutôt que sur le potentiel.
Avec de bonnes intentions, nous avons construit ce système. Mais aujourd’hui, l’UE s’en mêle et pose la question : qui surveille l’algorithme ?
Quand l’IA réinvente les biais
L’IA est entraînée sur des données existantes. Et c’est bien là le problème.
Si le passé montre que certains genres, origines ethniques ou trous dans le CV ont été négligés ou sous-évalués, l’algorithme apprend à reproduire ce schéma.
Un cas documenté : un outil de recrutement basé sur l’IA chez Amazon a dévalorisé les CV contenant le mot « women » (femmes), car les embauches passées concernaient majoritairement des hommes.
Autres exemples :
- Onderzoek van de University of Washington toonde aan dat AI-recruiters namen geassocieerd met “wit” 85% van de tijd bevoordeelden, terwijl namen geassocieerd met “zwart” slechts 9% kregen.
- Bloomberg testte ChatGPT met fictieve cv’s: Aziatische vrouwen werden 17,2% van de tijd hoog gerankt, tegenover 7,6% voor zwarte mannen – terwijl pariteit 12,5% zou moeten zijn.
- Een Harvard Business School-onderzoek meldde dat 88% van de werkgevers erkende dat hun AI-systemen gekwalificeerde kandidaten onterecht afwezen.
Que se passe-t-il d’autre ?
- Les noms non-européens déclenchent davantage de rejets.
- Les interruptions de carrière (parentalité, maladie) sont signalées comme « incohérentes ».
- Les candidats passifs sont ignorés car ils n’utilisent pas les « bons » mots-clés.
Ce n’est pas une erreur. C’est un schéma.
L’AI Act de l’UE : la responsabilité avant l’automatisation
L’AI Act de l’UE (entré en vigueur le 1er août 2024) ne concernait pas seulement ChatGPT.
Il s’agissait de protéger les personnes contre les biais invisibles dans des décisions de vie critiques, comme l’embauche, la santé ou l’octroi de crédit.
Les outils d’IA utilisés pour le recrutement doivent désormais respecter de nouvelles règles :
✓ Transparence – Les candidats ont le droit de savoir pourquoi ils ont été rejetés.
✓ Supervision humaine – Plus de rejets totalement automatisés et silencieux.
✓ Équité – Les systèmes ne doivent pas renforcer les discriminations liées à l’âge, au genre, à l’origine ethnique ou aux trous dans le CV.
Construire intelligemment. Construire humainement.
L’avenir du recrutement n’est pas anti-IA, il est pro-responsabilité.
Il s’agit d’outils transparents, d’une conception réfléchie et d’une supervision éthique.
Chez Linkrs, nous croyons que la technologie doit renforcer le jugement humain – et non le remplacer.
Vous souhaitez savoir comment mettre en place des stratégies de recrutement plus équitables et efficaces à l’ère de l’IA ?
Découvrez-en plus sur notre blog ou contactez-nous, nous sommes là pour vous accompagner dans cette transition.