McKinsey a commencé à employer un chatbot d’IA lors des premières étapes de son recrutement de diplômés. L’outil interagit avec chaque candidat, pose des questions identiques et collecte des réponses structurées pour faciliter le tri initial, sans remplacer les entretiens ni la décision finale prise par des humains.

Contexte et fonctionnement

Le recrutement des diplômés mobilise beaucoup de ressources : de grandes entreprises reçoivent souvent des volumes importants de candidatures à gérer rapidement. Dans ce contexte, un agent conversationnel permet d’entrer en contact avec tous les postulants, d’assurer une standardisation des questions et de rassembler des données organisées destinées aux recruteurs. Selon les informations communiquées, l’outil est utilisé au stade préliminaire du processus et s’intègre à une évaluation globale qui comprend ensuite des entretiens et un jugement humain.

Ce que change l’outil pour les équipes de recrutement

L’automatisation du filtrage initial redéfinit les tâches des recruteurs : au lieu de consacrer du temps à la lecture et au tri manuel de chaque candidature, ils peuvent se consacrer davantage à l’analyse approfondie des profils retenus. En pratique, le chatbot restitue des synthèses ou des données structurées que les recruteurs examinent avant de décider des étapes suivantes.

  • Gain de temps sur les premières phases de sélection.
  • Meilleure homogénéité des premières interactions grâce à des questions identiques pour tous.
  • Possibilité de concentrer l’expertise humaine sur les entretiens et l’évaluation qualitative.

Enjeux de supervision et de responsabilité

L’introduction d’un tel outil appelle toutefois une vigilance accrue. Les recruteurs doivent comprendre quels signaux le chatbot privilégie et comment sont présentées ou agrégées les réponses. Sans cette visibilité, il existe un risque d’attribuer trop d’importance à des sorties automatisées, même si l’outil n’est pas conçu pour trancher de manière définitive.

Pour limiter ces risques, plusieurs mesures sont nécessaires : formation des équipes sur l’interprétation des résultats, audit régulier des modèles et des critères utilisés, et documentation des choix techniques et méthodologiques. McKinsey indique garder le contrôle humain et assurer une certaine transparence quant à l’emploi de l’IA, ce qui reflète l’attention portée aux processus internes sensibles.

Équité, biais et communication aux candidats

L’usage d’un agent conversationnel soulève des questions d’équité. Des biais peuvent émerger selon les données d’entraînement du modèle ou la formulation des questions, et certains groupes de candidats pourraient être désavantagés si le système n’est pas testé et ajusté en continu. Il faut donc :

  • contrôler l’impact des formulations et des critères d’évaluation ;
  • mettre en place des tests pour détecter d’éventuels biais différenciés ;
  • informer clairement les candidats sur l’usage de l’IA et le traitement de leurs données.

Pourquoi le recrutement sert de terrain d’essai

Le recrutement offre un cadre interne et modulable pour expérimenter des outils d’IA sans impacter directement les produits ou services. Les processus peuvent être ajustés, mesurés et encadrés afin d’évaluer les bénéfices opérationnels (scalabilité, standardisation) et les risques (biais, perte de qualité perçue) avant d’envisager des déploiements plus larges.

Ce qui reste à confirmer

Informations non précisées ou incertaines : la nature exacte du modèle utilisé, l’ampleur et la localisation du pilote, les indicateurs de performance mesurés et le ressenti des candidats n’ont pas été détaillés dans les éléments disponibles. Ces points nécessiteraient des précisions pour juger de l’efficacité et des limites de l’expérimentation.

À retenir

  • McKinsey expérimente un chatbot d’IA pour la présélection des diplômés afin de standardiser le tri initial.
  • L’outil vise à aider, non à remplacer, les entretiens et les décisions humaines.
  • La réallocation du temps des recruteurs peut améliorer la qualité des évaluations en profondeur.
  • Surveillance, audits et formation sont indispensables pour limiter les risques de biais et d’utilisation excessive.
  • La transparence envers les candidats et le contrôle humain restent des exigences centrales.

Article amélioré avec l'IA - Article original