Opinion 15 min read

Le biais algorithmique du recrutement est un raccourci dangereux

Le biais algorithmique du recrutement permet aux employeurs d’externaliser le jugement vers des outils qui peuvent amplifier d’anciennes exclusions. La solution n’est pas un meilleur slogan sur l’équité, mais une preuve avant que l’automatisation touche un CV.

This article was automatically translated from English by AI. Read the original English version →
Laptop and resume representing algorithmic hiring bias in automated screening
Reading mode


Le biais algorithmiqueQuand les systèmes d'apprentissage automatique produisent des résultats qui reflètent ou renforcent les biais socioéconomiques, raciaux et de genre présents dans leurs données d'entraînement. du recrutement n’est plus un problème hypothétique de droits civiques. La SHRM a indiqué que 26 % des organisations interrogées utilisaient l’intelligence artificielle pour soutenir les activités de ressources humaines en 2024, et que, parmi les organisations utilisant l’intelligence artificielle pour recruter, mener des entretiens ou embaucher, environ un tiers l’utilisaient pour examiner ou filtrer des CV[s]. Ma position est simple : les employeurs ne devraient pas utiliser de filtres automatisés de CV, sauf s’ils peuvent prouver, avant et pendant l’utilisation, que l’outil mesure les compétences professionnelles au lieu de trier les personnes par indicateurs indirects.

La promesse paraît nette. Une machine lit chaque CV, ignore le charme, ignore l’intuition, et donne aux recruteurs pressés une liste plus propre. Cette promesse s’effondre lorsque le filtre est entraîné sur d’anciens schémasCadres mentaux de représentations compressées et d'attentes que le cerveau utilise pour encoder, stocker et récupérer les informations. Lorsque vous vous souvenez de quelque chose, votre cerveau la reconstruit en utilisant des schémas plus tous les indices contextuels présents. d’embauche, des descriptions de poste rigides ou des signaux qui reflètent la race, l’âge, le handicap, la classe sociale et les antécédents d’aide familiale. Un responsable humain biaisé peut nuire à un vivier de candidats. Un filtre biaisé peut nuire discrètement à tous les viviers de candidats.

Le biais algorithmique du recrutement commence avant l’entretien

Le moment le plus dangereux dans le recrutement n’est pas toujours l’entretien final. C’est la première sélection, lorsqu’un candidat disparaît sans savoir pourquoi. Brookings décrit le filtrage comme l’étape qui écarte certains candidats et en met d’autres en avant, et affirme que le filtrage algorithmique est souvent le filtre le plus décisif que les candidats doivent franchir[s]. C’est précisément pourquoi le filtrage automatisé des CV mérite plus d’examen que la note subjective d’un responsable après un entretien. Le candidat rejeté par un logiciel peut ne jamais atteindre un être humain capable de percevoir le contexte.

Harvard Business School et Accenture ont constaté que les systèmes de recrutement forment la base de l’embauche dans de nombreuses organisations, et que plus de 90 % des employeurs de leur enquête utilisaient des systèmes de gestion du recrutement pour filtrer ou classer d’abord les candidats à qualification intermédiaire et élevée[s]. Le rapport indique aussi que ces systèmes sont conçus pour maximiser l’efficacité en réduisant le nombre de candidats effectivement examinés. L’efficacité n’est pas une valeur neutre lorsque le raccourci repose sur des mots clés exacts, des exigences de diplôme, des interruptions d’emploi et d’autres approximations imparfaites de la capacité.

Voilà le biais algorithmique du recrutement en termes simples : un système qui prétend élargir la recherche peut au contraire rétrécir la porte. Un candidat dépourvu de diplôme conventionnel peut être écarté avant que quiconque voie son portfolio. Une personne aidante avec une interruption de carrière peut paraître plus faible à un filtre fondé sur des règles qu’à un responsable qui comprend le poste. Un candidat handicapé peut obtenir de moins bons résultats à une évaluation parce que l’outil mesure davantage le format du test que la compétence requise par l’emploi.

Le droit voit déjà le danger

L’Equal Employment Opportunity Commission a clairement indiqué que les lois fédérales contre la discrimination s’appliquent à l’intelligence artificielle et aux autres nouvelles technologies dans l’emploi, y compris le recrutement, le filtrage et l’embauche[s]. Les mêmes orientations de l’EEOC précisent que la discrimination peut être intentionnelle, par exemple programmer un outil de filtrage de CV pour rejeter des personnes en fonction d’un trait protégé, ou provenir d’une pratique apparemment neutre ayant un impact disparate injustifiable.

Le droit du handicap montre pourquoi il ne s’agit pas seulement de race et de genre. Le Department of Justice indique que les employeurs utilisent des technologies de recrutement pour décider si les candidats remplissent les conditions requises, mener des entretiens en ligne, utiliser des tests informatisés et noter les CV, et avertit que ces technologies peuvent discriminer les personnes handicapées[s]. Si un lecteur d’écran échoue dans un test en ligne, ou si un outil d’analyse vocale pénalise un trouble de la parole, le problème n’est pas le candidat. Le problème est un processus d’embauche qui confond échec d’accessibilité et échec professionnel.

L’affaire iTutorGroup est le signal d’alarme le plus limpide. Selon un bulletin de l’EEOC, l’entreprise a accepté de payer 365 000 dollars après que l’agence a affirmé que son logiciel de candidature pour tuteurs rejetait automatiquement les candidates âgées de 55 ans ou plus et les candidats masculins âgés de 60 ans ou plus, ce qui a touché plus de 200 candidats qualifiés aux États-Unis[s]. Ce n’est pas un mystérieux accident de boîte noire. C’est ce qui arrive lorsque l’automatisation donne une portée instantanée à une règle présumée discriminatoire.

Le contre-argument a du poids

Les employeurs ont raison sur un point : le recrutement humain n’est pas pur. Les gens favorisent les écoles familières, les noms familiers, les styles d’entretien fluides et les CV qui ressemblent à leur propre trajectoire professionnelle. Brookings note que la persistance des biais dans la décision humaine aide à expliquer l’intérêt pour les outils de recrutement algorithmique[s]. La cohérence peut être utile. Un outil bien testé pourrait aider à repérer des schémas qu’un recruteur manque.

Cet argument ne doit pas être écarté. Il faut le rendre plus difficile à détourner. La norme ne peut pas être qu’un employeur a acheté un produit réputé ou supprimé les traits protégés des champs de saisie. Le biais n’a pas besoin d’une colonne intitulée race pour trouver la race. Il peut passer par les noms, les codes postaux, les écoles, les interruptions de carrière, les schémas de parole, l’accès aux appareils et les occasions antérieures.

Ce qui devrait changer

Une réponse sérieuse au biais algorithmique du recrutement commence par un déplacement de la charge de la preuve. Les employeurs qui déploient des outils de filtrage de CV devraient devoir montrer que l’outil est lié aux tâches réelles du poste, testé pour détecter un impact disparate, accessible aux candidats handicapés et surveillé après le lancement. Si un fournisseur refuse d’expliquer le modèle assez clairement pour un audit, l’outil ne devrait pas toucher aux candidatures.

La ville de New York a franchi une étape partielle. Sa Local Law 144 interdit aux employeurs et aux agences d’emploi d’utiliser un outil automatisé de décision en matière d’emploi, sauf si l’outil a fait l’objet d’un audit des biais dans l’année écoulée, si des informations sur l’audit sont publiquement disponibles et si un avis a été donné aux candidats ou aux employés[s]. C’est un socle, pas une ligne d’arrivée. Les résumés publics d’audit aident, mais les candidats ont aussi besoin d’une notification claire, d’une vraie voie d’aménagement et d’un recours humain lorsqu’un filtre les bloque.

La réponse au biais algorithmique du recrutement n’est pas d’interdire toute aide automatisée. Elle consiste à cesser de traiter l’automatisation comme une preuve d’innocence. Un filtre de CV est un outil de décision en matière d’emploi. S’il peut rejeter des personnes, les classer ou les soustraire à l’examen humain, il mérite le même sérieux que tout autre gardien. Les employeurs devraient pouvoir utiliser la technologie pour organiser les candidatures. Ils ne devraient pas être autorisés à blanchir la discrimination par le logiciel et à appeler cela efficacité. C’est la règle minimale pour le biais algorithmique du recrutement : organiser la file, mais ne pas cacher la personne.

Le biais algorithmiqueQuand les systèmes d'apprentissage automatique produisent des résultats qui reflètent ou renforcent les biais socioéconomiques, raciaux et de genre présents dans leurs données d'entraînement. du recrutement devrait être traité comme un problème de contrôle industriel, non comme un engagement éthique de fournisseur. La décision d’automatiser le filtrage des CV change l’échelle, l’opacité et la charge probatoire du recrutement. Dès qu’un logiciel classe les candidats, la question pertinente n’est pas de savoir si l’employeur avait l’intention de discriminer. La question est de savoir si le système de sélection produit une exclusion injustifiée et si quelqu’un peut prouver qu’il ne le fait pas.

L’assistance technique de l’EEOC sur le Title VII est utile parce qu’elle refuse de laisser les employeurs se cacher derrière le vocabulaire. Elle cite les analyseurs de CV, les agents conversationnels, les outils vidéo, les logiciels de surveillance et les scores d’adéquation au poste comme des outils algorithmiques de décision, et explique que les Uniform Guidelines peuvent s’appliquer lorsque ces outils sont utilisés pour prendre ou éclairer des décisions d’embauche, de promotion, de licenciement ou d’emploi similaires[s]. Elle indique aussi qu’un employeur peut rester responsable au regard du Title VII lorsqu’un fournisseur a conçu ou administré l’outil.

Le biais algorithmique du recrutement est un échec de validation

La faiblesse centrale du filtrage automatisé est que l’exactitude prédictive peut masquer un échec juridique et social. Un modèle peut prédire quels candidats ressemblent aux personnes embauchées dans le passé, aux trajectoires de promotion passées ou aux anciens gagnants des évaluations de performance. Cela ne signifie pas qu’il prédit équitablement qui peut faire le travail. Brookings note que les outils de filtrage algorithmique peuvent sembler fondés sur des preuves tout en reproduisant ou en aggravant le biais humain intégré aux jeux de données utilisés pour les construire[s]. Un modèle peut être valide au regard d’un repère biaisé et rester faux pour un marché du travail équitable.

Le NIST donne le bon cadre. Sa publication sur les biais indique que les tentatives actuelles pour traiter les biais de l’intelligence artificielle se concentrent souvent sur des facteurs computationnels, comme la représentativité des jeux de données et l’équité du modèle, alors que les facteurs humains, institutionnels et sociétaux sont aussi de grandes sources de biais[s]. Dans le recrutement, cela signifie qu’un modèle propre peut encore automatiser une mauvaise description de poste, une mesure de performance dépassée ou une histoire du marché du travail façonnée par l’exclusion.

Le biais algorithmique du recrutement survit au retrait des traits protégés explicites parce que les indicateurs indirects font le travail. Les noms peuvent signaler une race ou un genre perçus. Les interruptions peuvent signaler l’aide familiale, le handicap, la maladie ou un passé carcéral. Les filtres universitaires peuvent importer la classe sociale et la géographie. Les filtres par mots clés peuvent récompenser les candidats qui ont appris le dialecte du recrutement d’entreprise plutôt que ceux qui savent faire le travail.

Les preuves sont déjà concrètes

Des chercheurs de l’université de Washington ont mené une étude d’audit de CV en utilisant plus de 500 CV et 500 descriptions de poste dans neuf métiers. Dans le résumé arXiv, ils ont indiqué que les modèles d’intégration de texte testés favorisaient significativement les noms associés aux Blancs dans 85,1 % des cas et les noms associés aux femmes dans seulement 11,1 % des cas[s]. Le résumé de l’université ajoute que les systèmes préféraient les noms associés aux Blancs 85 % du temps contre 9 % pour les noms associés aux Noirs, et ne préféraient jamais les noms masculins perçus comme noirs aux noms masculins blancs dans les comparaisons testées[s].

Cette preuve compte parce que l’incitation du marché va dans l’autre sens. La SHRM a constaté que, parmi les organisations utilisant l’intelligence artificielle pour soutenir le recrutement, les entretiens ou l’embauche, beaucoup l’utilisaient pour des tâches administratives ou de recrutement, et environ une sur trois l’utilisait pour examiner ou filtrer les CV des candidats[s]. L’argument économique est la vitesse. Le risque social est que la vitesse dépasse le diagnostic, le recours ou la responsabilité.

Harvard Business School et Accenture ont documenté la même tension du côté des talents. Leur rapport indique que les systèmes de gestion du recrutement sont utilisés par plus de 90 % des employeurs de leur enquête pour filtrer ou classer d’abord les candidats à qualification intermédiaire et élevée, et que ces systèmes sont conçus pour maximiser l’efficacité du processus en réduisant le groupe de candidats[s]. C’est un choix de gestion déguisé en nécessité technique.

Le handicap révèle la faille

Le handicap est le test le plus difficile pour le recrutement automatisé parce qu’il révèle si un outil mesure la compétence ou la conformité à l’environnement de test. Les orientations de l’EEOC indiquent qu’un employeur peut violer l’ADA lorsqu’un outil algorithmique de décision écarte une personne handicapée qui pourrait faire le travail avec un aménagement raisonnableAdaptation d’un processus de travail ou d’un poste permettant à une personne handicapée qualifiée de participer ou d’exercer ses tâches.[s]. Ce n’est pas une question secondaire. Si une évaluation pénalise un candidat aveugle parce que l’interface échoue, ou un candidat neurodivergent parce que l’outil assimile le comportement facial à la compétence, l’employeur n’a presque rien appris sur la performance professionnelle.

Le contre-argument est que les humains commettent aussi ces erreurs, souvent avec moins de cohérence et sans piste d’audit. C’est vrai, et c’est l’argument le plus fort en faveur d’outils soigneusement gouvernés. Le logiciel peut enregistrer les décisions. Le logiciel peut être testé. Le logiciel peut être contraint d’utiliser des critères structurés plutôt que l’humeur d’un recruteur. Mais ces avantages n’existent que lorsque les employeurs construisent la gouvernance autour de l’outil. Sans cette gouvernance, l’automatisation devient un multiplicateur de biais avec de meilleurs dossiers.

Les audits doivent avoir des conséquences

Les audits du biais algorithmique du recrutement ne devraient pas être du théâtre. Ils devraient être propres à chaque rôle, renouvelés lorsque l’outil ou le marché du travail change, et conçus pour détecter les préjudices intersectionnels. Un outil qui réussit une large analyse raciale peut encore nuire aux hommes noirs. Un outil qui réussit une analyse de genre peut encore pénaliser les femmes plus âgées. Un outil qui réussit les deux peut encore être inaccessible aux candidats handicapés.

La loi AEDT de la ville de New York va dans la bonne direction en exigeant un audit des biais dans l’année écoulée, des informations publiques sur l’audit et une notification avant l’utilisation des outils automatisés de décision en matière d’emploi couverts[s]. Sa faiblesse est que la divulgation sans normes opposables peut devenir un rituel de conformité. Les employeurs devraient devoir suspendre ou retirer les outils qui échouent aux contrôles d’impact disparate, sauf s’ils peuvent démontrer une nécessité professionnelle et l’absence d’alternative moins discriminatoire.

Il n’existe pas non plus de défense sérieuse consistant à déplacer la faute vers le fournisseur. Le bulletin de l’EEOC sur iTutorGroup indique que l’agence a allégué que le logiciel de candidature pour tuteurs de l’entreprise rejetait automatiquement les candidates âgées de 55 ans ou plus et les candidats masculins âgés de 60 ans ou plus, et que l’accord prévoyait 365 000 dollars pour les candidats automatiquement rejetés en raison de l’âge[s]. La leçon est directe : un employeur ne peut pas externaliser la discrimination, garder le bénéfice et rejeter la responsabilité.

La règle devrait être simple

La réponse politique au biais algorithmique du recrutement devrait être la preuve d’abord, l’usage ensuite. Avant le déploiement, les employeurs devraient documenter la raison liée au poste pour chaque filtre automatisé, tester les taux de sélection par groupes protégés lorsque c’est légal et faisable, vérifier l’accessibilité, déclarer l’outil aux candidats et fournir une voie d’examen humain. Après le déploiement, ils devraient surveiller les résultats, publier des résumés significatifs et retirer les outils qui ne peuvent pas être audités. Cette norme traite le biais algorithmique du recrutement comme un risque mesurable, non comme un problème d’image de marque.

L’automatisation ne peut aider le recrutement que si elle reste subordonnée à l’égalité des chances. Dès qu’elle devient un bouclier contre l’examen, elle devrait perdre le privilège de toucher aux candidatures. Un filtre de CV qui décide discrètement qui est visible n’est pas un logiciel administratif. C’est un gardien, et les gardiens ont besoin de règles.

How was this article?
Share this article

Spot an error? Let us know

Sources