Utiliser l’IA pour l’embauche : bien faire les choses

Utiliser l’IA pour l’embauche : bien faire les choses

Même avec des signes de récession, l’embauche continue d’être une priorité absolue et un défi pour plusieurs secteurs, notamment les soins de santé, l’hôtellerie, la fabrication et les transports. Il y a environ 11,4 millions d’emplois non pourvus aux États-Unis, selon des rapports récents du Bureau of Labor Statistics des États-Unis. Avec le ratio actuel d’un professionnel des talents qualifié pour huit postes vacants, les équipes de talents doivent trouver des moyens d’être plus efficientes et efficaces.

L’IA permet un processus d’embauche rapide et efficace. Cela peut également être un outil puissant pour découvrir les biais d’embauche cachés et conduire le changement, incitant les organisations à évaluer leurs données d’embauche historiques et à améliorer les processus de recrutement et d’embauche.

La signification du biais

Les scientifiques des données vous diront que toutes les données sont biaisées, car le biais consiste à trouver des modèles dans les données. Certains biais sont souhaitables, tels que le biais utilisé pour recommander des emplois aux candidats en fonction de leur lieu de prédilection, de leurs compétences, de leurs intérêts et de l’intitulé du poste. Encourager les biais vers la satisfaction de ces préférences lors de la configuration de vos modèles algorithmiques permet de faire correspondre les candidats avec les emplois qu’ils recherchent et les recruteurs avec les personnes les mieux adaptées pour remplir les rôles. Dans ce cas, le biais profite à la fois aux demandeurs d’emploi et aux employeurs.

Les préjugés sociaux concernent cependant les professionnels des RH et les groupes de réglementation. Ce biais exclut les candidats à un emploi en fonction du sexe, du sexe, de l’âge, des capacités ou d’autres attributs démographiques. Les préjugés sociaux incluent également une préférence discriminatoire envers les candidats qui ont fréquenté certaines universités ou certains employeurs précédents répertoriés sur leur CV.

Lire aussi  L'OMS recommande l'utilisation du vaccin antipaludique chez les enfants

L’IA fonde ses prédictions sur les données qu’elle reçoit. Il peut sembler que l’IA crée un biais, mais ce n’est pas le cas. L’IA ne fait qu’amplifier le biais déjà présent dans les données historiques d’une organisation.

Lorsqu’elle n’est pas contrôlée, l’amplification par l’IA des biais existants peut réduire la diversité dans le vivier de candidats, car la technologie recommandera des candidats ayant des antécédents similaires aux embauches précédentes et exclura les personnes qui ne correspondent pas à ces critères.

Les organisations qui réussissent avec l’IA dans le recrutement utilisent cette technologie pour mettre en lumière les tendances d’embauche biaisées tout en comprenant que la mise en œuvre de l’IA ne résout pas directement les problèmes de diversité ou d’inclusion. Au lieu de cela, il offre un aperçu des déficits de diversité afin que les organisations puissent s’efforcer de les atténuer.

Les humains dans la boucle

La meilleure façon de lutter contre les préjugés est de les détecter avant de
formation de vos modèles. L’analyse précoce des données exploratoires permet d’identifier et de supprimer les préjugés sociaux des données d’embauche d’une entreprise avant qu’elles ne soient incluses dans les ensembles de formation ou mises en production.

Une fois que votre organisation commence à utiliser l’IA, un « humain dans la boucle » – une équipe dédiée à l’évaluation des résultats de l’IA – est essentiel pour surveiller les progrès de la technologie. Cette personne n’a pas besoin de compétences hautement techniques. Tout membre de l’équipe passionné par la défense de la diversité peut apprendre à vérifier les indicateurs de biais.

Lire aussi  Le mystère au cœur du chaos OpenAI

Le processus en cours peut être aussi simple que d’analyser chaque semaine le tableau de bord d’IA de votre organisation. Les équipes doivent comparer les recommandations d’embauche du système aux normes de l’organisation. C’est un moyen important de s’assurer qu’aucun groupe démographique n’est surreprésenté ou sous-représenté. Les informations de l’humain dans la boucle aident les équipes d’ingénierie à ajuster les modèles pour atteindre leurs objectifs.

Les utilisateurs finaux d’une organisation contribuent également à affiner les modèles algorithmiques. Lorsque les recruteurs ou les responsables du recrutement remarquent des indications de partialité dans les recommandations de candidats qu’ils reçoivent, ils doivent soulever le problème avec un chef de produit. Ensuite, un scientifique des données peut enquêter plus avant pour comprendre ce qui s’est passé et faire des recommandations sur la façon de l’éviter à l’avenir.

De meilleurs modèles avec une itération constante

Certaines entreprises considèrent l’IA comme un algorithme autonome qu’elles “définissent et oublient”. Mais l’IA ne reste pas immobile – elle continue d’apprendre de vos données. Votre organisation doit traiter l’IA comme un processus continu. Des modèles algorithmiques mieux formés génèrent des prédictions d’IA plus alignées sur vos objectifs de recrutement.

Une compréhension approfondie de la relation entre les préjugés et les données, combinée à un membre d’équipe passionné et soucieux de la diversité, permettra à votre organisation de tirer le meilleur parti de l’IA dans les processus d’embauche. Avec l’IA prenant en charge les recruteurs et les responsables du recrutement, ils auront le temps de se concentrer sur les éléments humains de haut niveau des RH qu’aucun algorithme ne peut remplacer.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick