Le logiciel de recrutement d’IA est une “pseudoscience automatisée” • The Register

  • FrançaisFrançais


  • Les affirmations selon lesquelles les logiciels de recrutement basés sur l’IA peuvent stimuler la diversité des nouvelles recrues sur un lieu de travail ont été démystifiées dans une étude publiée cette semaine.

    Les partisans des algorithmes d’apprentissage automatique formés pour analyser le langage corporel et prédire l’intelligence émotionnelle des candidats pensent que le logiciel offre un moyen plus juste d’évaluer les travailleurs s’il ne tient pas compte du sexe et de la race. Ils soutiennent que les nouveaux outils pourraient éliminer les préjugés humains et aider les entreprises à atteindre leurs objectifs de diversité, d’équité et d’inclusion en embauchant davantage de personnes issues de groupes sous-représentés.

    Mais un article publié dans la revue Philosophie et technologie par une paire de chercheurs de l’Université de Cambridge, démontre cependant que le logiciel n’est guère plus qu’une “pseudoscience automatisée”. Six étudiants de premier cycle en informatique ont reproduit un modèle commercial utilisé dans l’industrie pour examiner comment un logiciel de recrutement basé sur l’IA prédit la personnalité des personnes à l’aide d’images de leur visage.

    Surnommé la “machine à personnalité”, le système recherche les “cinq grands” tropes de la personnalité : extraversion, amabilité, ouverture, conscience et névrosisme. Ils ont découvert que les prédictions du logiciel étaient affectées par les changements dans les expressions faciales, l’éclairage et les arrière-plans des personnes, ainsi que par leur choix de vêtements. Ces caractéristiques n’ont rien à voir avec les capacités d’un demandeur d’emploi, donc l’utilisation de l’IA à des fins de recrutement est imparfaite, affirment les chercheurs.

    “Le fait que les changements de lumière, de saturation et de contraste affectent votre score de personnalité en est la preuve”, a déclaré Kerry Mackereth, associée de recherche postdoctorale au Centre d’études sur le genre de l’Université de Cambridge. Le registre. Les résultats de l’article sont étayés par des études antérieures, qui ont montré comment le port de lunettes et d’un foulard dans une interview vidéo ou l’ajout d’une étagère à livres en arrière-plan peut diminuer les scores d’un candidat en matière de conscience et de névrosisme, a-t-elle noté.

    Mackereth a également expliqué que ces outils sont probablement formés pour rechercher les attributs associés aux précédents candidats retenus et sont donc plus susceptibles de recruter des personnes d’apparence similaire au lieu de promouvoir la diversité.

    “Les modèles d’apprentissage automatique sont compris comme prédictifs ; cependant, comme ils sont formés sur des données passées, ils réitèrent des décisions prises dans le passé, pas dans le futur. Au fur et à mesure que les outils apprennent à partir de cet ensemble de données préexistant, une boucle de rétroaction est créée. entre ce que les entreprises perçoivent comme un employé idéal et les critères utilisés par les outils de recrutement automatisés pour sélectionner les candidats », a-t-elle déclaré.

    Les chercheurs pensent que la technologie doit être réglementée plus strictement. “Nous craignons que certains vendeurs emballent des produits” d’huile de serpent “dans un emballage brillant et les vendent à des clients sans méfiance”, a déclaré la co-auteure Eleanor Drage, associée de recherche postdoctorale également au Center for Gender Studies.

    “Bien que les entreprises n’agissent peut-être pas de mauvaise foi, il y a peu de responsabilité quant à la façon dont ces produits sont construits ou testés. En tant que telle, cette technologie et la façon dont elle est commercialisée pourraient devenir de dangereuses sources de désinformation sur la façon dont le recrutement peut être ‘débiaisé’ et rendu plus juste”, a-t-elle ajouté.

    Mackereth a déclaré que bien que la loi sur l’IA de l’Union européenne classe ces logiciels de recrutement comme “à haut risque”, il n’est pas clair quelles règles sont appliquées pour réduire ces risques. “Nous pensons qu’il doit y avoir un examen beaucoup plus sérieux de ces outils et des allégations marketing qui sont faites à propos de ces produits, et que la réglementation des outils RH alimentés par l’IA devrait jouer un rôle beaucoup plus important dans l’agenda politique de l’IA.”

    “Alors que les méfaits des outils de recrutement basés sur l’IA semblent être beaucoup plus latents et insidieux que les cas plus médiatisés de discrimination algorithmique, ils possèdent le potentiel d’avoir des effets durables sur l’emploi et la mobilité socio-économique”, a-t-elle conclu. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *