Au cœur du problème se trouve ce que l’on pourrait appeler une "chambre d’écho de l’IA." Lorsque du contenu généré par l’IA est évalué par des outils de sélection basés sur l’IA, une interaction artificielle se produit, risquant d’éliminer le facteur humain. Cela peut conduire à écarter des candidats qualifiés, tandis que d’autres moins compétents passent la sélection grâce à des CV optimisés par l’IA.
Une solution évidente consiste à introduire l’interaction humaine plus tôt dans le processus. En planifiant un entretien personnel dès le début, les recruteurs peuvent évaluer directement l’authenticité des candidats, leurs compétences relationnelles et leur personnalité.
Pour les organisations souhaitant tout de même utiliser l’IA pour le tri des CV, une approche hybride est recommandée. L’IA peut traiter efficacement de grandes quantités de CV, tandis que les recruteurs humains évaluent les nuances que l’IA pourrait manquer.
Recommandations concrètes pour les organisations :
- Demander des exemples spécifiques d’expériences professionnelles difficiles à générer par l’IA.
- Garantir la transparence sur le processus de sélection.
- Trouver un équilibre entre efficacité et interaction personnelle.
Nous encourageons également les organisations à mettre davantage l’accent sur des évaluations pratiques et à repenser leurs processus de recrutement en accordant une plus grande importance à l’interaction humaine.
À long terme, des systèmes d’IA plus avancés seront capables de mieux reconnaître l’authenticité.