Article

Recrutement et Intelligence Artificielle

Nicolas Gasnier Duparc
By:
Recrutement et Intelligence Artificielle
Entre promesse de performance et conformité réglementaire

Avec l’arrivée progressive de l’Intelligence Artificielle (IA), le recrutement traverse une transformation profonde dans son fonctionnement intrinsèque et soulève de nouveaux risques tant pour les organisations que les candidats eux-mêmes. 

L’automatisation du recrutement n'est plus un choix marginal, mais une réalité omniprésente en 2025. Parmi les étapes les plus automatisées figurent la présélection des CV, la planification des entretiens et parfois même l’évaluation prédictive des performances et du potentiel d’un candidat. Ce tournant technologique vise avant tout à améliorer l’efficacité, mais soulève également des questions cruciales concernant l’équité, la transparence et, bien sûr, la protection des données personnelles.

L’intelligence artificielle dans le recrutement : usages et risques

Les systèmes d’IA utilisés dans le recrutement reposent sur des techniques diverses, comme le traitement automatique du langage naturel, l’analyse d’images ou encore l’apprentissage automatique supervisé. Ces technologies permettent, par exemple, de vérifier la compatibilité entre un CV et une fiche de poste, d'analyser la performance verbale et non verbale d’un candidat lors d’un entretien vidéo ou de prédire son succès futur dans l’entreprise. Ces systèmes présentent donc des risques importants, souvent liés à leur mode de fonctionnement et aux données sur lesquelles ils sont entrainés. A date, il est possible d’identifier trois types de risques :

  1. Les biais algorithmiques qui représentent un phénomène où les décisions prises par une IA reproduisent ou amplifient des discriminations préexistantes. Les biais algorithmiques se manifestent lorsque l’IA, entraînée sur des données historiques, apprend à partir des pratiques passées. Si ces pratiques étaient déjà marquées par des inégalités (par exemple, un recrutement dominé par un groupe spécifique), l'algorithme a tendance à perpétuer ces biais, parfois de manière invisible et difficilement détectable.
  2. La standardisation des profils pour des besoins techniques. Les systèmes d’IA, en cherchant à optimiser l’efficacité, peuvent réduire la diversité des candidats en ne prenant en compte que les critères les plus « rentables » ou prévisibles. Cela peut entraîner une homogénéisation des recrutements, excluant des talents issus de parcours atypiques, créatifs ou non conventionnels.
  3. L’opacité des algorithmes pose une autre difficulté : les décisions prises par ces systèmes sont souvent difficilement compréhensibles pour les recruteurs eux-mêmes. Cette absence de transparence peut rendre difficile, voire impossible, l’identification des raisons sous-jacentes à une décision de non-sélection. Il en résulte une perte de confiance dans le processus de recrutement et une absence de recours pour les candidats qui estiment avoir été injustement écartés.

Un encadrement juridique strict

L’utilisation de l’Intelligence Artificielle dans le recrutement ne peut se faire sans respecter un cadre juridique déjà bien établi. Depuis 2018, le RGPD encadre strictement les traitements de données personnelles, notamment ceux opérés par des systèmes automatisés. Il interdit, sauf exceptions, les décisions entièrement automatisées ayant des effets significatifs, comme le rejet automatique d’une candidature. Le règlement impose également la transparence, la possibilité de contester les décisions et la réalisation d’analyse d’impact en cas de risque élevé.

À cela s’ajoute désormais le règlement européen sur l’IA (AI Act), adopté en 2024, qui classe les outils de recrutement parmi les systèmes « à haut risque ». Ce statut entraîne des obligations renforcées : documentation technique, qualité des données, supervision humaine, transparence vis-à-vis des utilisateurs et enregistrement auprès des autorités européennes. Les manquements peuvent donner lieu à des sanctions financières pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial.

Ce qu’il faut faire pour être en conformité

Dans le cadre de l’utilisation de l’IA dans le processus de recrutement, la conformité est une composante essentielle de la stratégie RH. Voici les actions concrètes à mettre en place :

  1. Identifier les outils d'IA utilisés dans le processus de recrutement, qu'ils soient développés en interne ou fournis par des prestataires externes.
  2. Vérifier la qualification du système au regard de l’AI Act. Les outils utilisés pour le recrutement sont classés, par défaut, comme « à haut risque ».
  3. Exiger des fournisseurs toutes les garanties nécessaires : documentation technique, conformité au RGPD, transparence des décisions, fiabilité des algorithmes et tests contre la discrimination / les biais algorithmiques.
  4. Faire ou mettre à jour l’analyse d’impact relative à la protection des données (AIPD) en y intégrant les spécificités des outils d’IA : nature des données traitées, profilage, évaluation automatisée et risques de biais.
  5. Informer clairement les candidats sur la finalité du traitement de leurs données, sur le rôle de l'IA dans la décision, leurs droits (accès, opposition, explication) et les voies de recours possibles.
  6. Mettre en place une supervision humaine efficace, notamment dans l’interprétation des résultats produits par l’IA et dans la décision finale d’embauche.
  7. Documenter rigoureusement le processus, afin de démontrer, en cas de contrôle, la conformité aux exigences du RGPD et du règlement sur l’IA.

L’Intelligence Artificielle offre sans aucun doute un potentiel considérable pour repenser et optimiser le processus de recrutement, en le rendant plus efficace, plus rapide et potentiellement plus objectif. 

Cependant, elle nécessite une vigilance continue. L'adoption de ces outils est une opportunité, à condition que l'humain, dans le recrutement comme ailleurs, demeure au centre de la décision.