Les affirmations selon lesquelles l’IA peut stimuler la diversité sur le lieu de travail sont “fausses et dangereuses”

  • Français


  • Une nouvelle étude met en évidence un marché en croissance dans les outils de recrutement basés sur l’IA, utilisés pour traiter un grand nombre de candidats à un emploi, qui prétendent contourner les préjugés humains et éliminer la discrimination lors de l’embauche. •Ces outils d’IA réduisent la race et le sexe à des points de données insignifiants et s’appuient souvent sur une analyse de la personnalité qui est une “pseudoscience automatisée”, selon les chercheurs de Cambridge. Les universitaires se sont également associés à des étudiants en informatique pour démystifier l’utilisation de l’IA dans le recrutement en créant une version des types de logiciels de plus en plus utilisés par les équipes RH. Il démontre comment des changements aléatoires de vêtements ou d’éclairage donnent des lectures de personnalité radicalement différentes qui pourraient s’avérer décisives pour une génération de demandeurs d’emploi.

    Ces dernières années ont vu l’émergence d’outils d’IA commercialisés comme une réponse au manque de diversité de la main-d’œuvre, de l’utilisation de chatbots et de grattoirs de CV pour aligner les candidats potentiels, jusqu’aux logiciels d’analyse pour les entretiens vidéo.

    Ceux qui sont à l’origine de la technologie affirment qu’elle annule les préjugés humains contre le sexe et l’ethnicité lors du recrutement, en utilisant à la place des algorithmes qui lisent le vocabulaire, les modèles de discours et même les micro-expressions faciales pour évaluer d’énormes bassins de candidats à l’emploi pour le bon type de personnalité et “l’adéquation à la culture”.

    Cependant, dans un nouveau rapport publié en Philosophie et technologiedes chercheurs du Centre d’études sur le genre de Cambridge affirment que ces affirmations font que certaines utilisations de l’IA dans l’embauche ne sont guère meilleures qu’une “pseudoscience automatisée” rappelant la physionomie ou la phrénologie : les croyances discréditées selon lesquelles la personnalité peut être déduite des traits du visage et de la forme du crâne.

    Ils disent qu’il s’agit d’un exemple dangereux de “technosolutionnisme”: se tourner vers la technologie pour apporter des solutions rapides à des problèmes de discrimination profondément enracinés qui nécessitent des investissements et des changements dans la culture d’entreprise.

    En fait, les chercheurs ont travaillé avec une équipe d’étudiants de premier cycle en informatique de Cambridge pour démystifier ces nouvelles techniques d’embauche en créant un outil d’IA calqué sur la technologie, disponible sur : https://personal-ambiguator-frontend.vercel.app/

    La “machine à personnalité” démontre comment des changements arbitraires dans l’expression faciale, les vêtements, l’éclairage et l’arrière-plan peuvent donner des lectures de personnalité radicalement différentes – et pourraient donc faire la différence entre le rejet et la progression pour une génération de demandeurs d’emploi en lice pour des postes de diplômés.

    L’équipe de Cambridge affirme que l’utilisation de l’IA pour réduire les bassins de candidats peut finalement accroître l’uniformité plutôt que la diversité de la main-d’œuvre, car la technologie est calibrée pour rechercher le “candidat idéal” fantaisiste de l’employeur.

    Cela pourrait voir ceux qui ont la formation et les antécédents appropriés “gagner les algorithmes” en reproduisant les comportements que l’IA est programmée pour identifier et en adoptant ces attitudes sur le lieu de travail, selon les chercheurs.

    De plus, à mesure que les algorithmes sont perfectionnés à l’aide de données antérieures, ils affirment que les candidats considérés comme les mieux adaptés finiront probablement par être ceux qui ressemblent le plus à la main-d’œuvre actuelle.

    “Nous craignons que certains vendeurs emballent des produits” d’huile de serpent “dans un emballage brillant et les vendent à des clients sans méfiance”, a déclaré le co-auteur, le Dr Eleanor Drage.

    “En prétendant que le racisme, le sexisme et d’autres formes de discrimination peuvent être éliminés du processus d’embauche à l’aide de l’intelligence artificielle, ces entreprises réduisent la race et le sexe à des points de données insignifiants, plutôt qu’à des systèmes de pouvoir qui façonnent notre façon de nous déplacer dans le monde. “

    Les chercheurs soulignent que ces outils de recrutement d’IA sont souvent propriétaires – ou “boîte noire” – donc leur fonctionnement est un mystère.

    “Bien que les entreprises n’agissent peut-être pas de mauvaise foi, il y a peu de responsabilité quant à la façon dont ces produits sont construits ou testés”, a déclaré Drage. « En tant que telle, cette technologie, et la façon dont elle est commercialisée, pourraient devenir de dangereuses sources de désinformation sur la façon dont le recrutement peut être « impartialisé » et rendu plus équitable. »

    Malgré quelques réticences – la proposition de loi sur l’IA de l’UE classe les logiciels de recrutement basés sur l’IA comme “à haut risque”, par exemple – les chercheurs affirment que les outils fabriqués par des entreprises telles que Retorio et HIreVue sont déployés avec peu de réglementation, et pointent vers des enquêtes suggérant une utilisation de l’IA dans l’embauche fait boule de neige.

    Une étude de 2020 portant sur 500 organisations de divers secteurs dans cinq pays a révélé que 24 % des entreprises ont mis en œuvre l’IA à des fins de recrutement et 56 % des responsables du recrutement prévoyaient de l’adopter l’année prochaine.

    Un autre sondage auprès de 334 leaders des ressources humaines, réalisé en avril 2020, alors que la pandémie s’installait, a révélé que 86 % des organisations intégraient de nouvelles technologies virtuelles dans leurs pratiques d’embauche.

    “Cette tendance était déjà en place au début de la pandémie, et le passage accéléré au travail en ligne provoqué par COVID-19 est susceptible de voir un plus grand déploiement d’outils d’IA par les services RH à l’avenir”, a déclaré le co-auteur, le Dr Kerry Mackereth, qui présente le podcast Good Robot avec Drage, dans lequel le duo explore l’éthique de la technologie.

    Covid-19 n’est pas le seul facteur, selon les agents des ressources humaines que les chercheurs ont interrogés. “Le recrutement en volume est de plus en plus intenable pour les équipes de ressources humaines qui recherchent désespérément un logiciel pour réduire les coûts ainsi que le nombre de candidats nécessitant une attention personnelle”, a déclaré Mackereth.

    Drage et Mackereth disent que de nombreuses entreprises utilisent désormais l’IA pour analyser les vidéos des candidats, interpréter la personnalité en évaluant les régions d’un visage – similaire à l’IA de détection de mensonges – et en notant les “cinq grands” tropes de personnalité : extraversion, amabilité, ouverture, conscience et névrosisme.

    Les étudiants de premier cycle à l’origine de la ‘Personality Machine’, qui utilise une technique similaire pour exposer ses défauts, affirment que même si leur outil n’aide pas les utilisateurs à battre l’algorithme, il donnera aux demandeurs d’emploi une idée des types d’IA qu’ils pourraient subir – – peut-être même à leur insu.

    “Trop souvent, le processus d’embauche est oblique et déroutant”, a déclaré Euan Ong, l’un des étudiants développeurs. “Nous voulons donner aux gens une démonstration viscérale des types de jugements qui sont désormais portés automatiquement à leur sujet.

    “Ces outils sont formés pour prédire la personnalité sur la base de modèles communs dans les images de personnes qu’ils ont déjà vues, et finissent souvent par trouver de fausses corrélations entre la personnalité et des propriétés apparemment sans rapport avec l’image, comme la luminosité. de modèles qui, selon nous, sont utilisés dans la pratique, afin de les expérimenter nous-mêmes », a déclaré Ong.

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *