Il n’y a rien que l’intelligence artificielle et l’automatisation ne peuvent résoudre – sauf les préjugés et les inégalités sur le lieu de travail, selon le rapport

  • Français


  • RoTM L’IA et l’automatisation sur le lieu de travail risquent de créer de nouvelles formes de préjugés et d’injustice, aggravant les inégalités dans le monde du travail, selon un rapport d’un groupe de réflexion britannique publié aujourd’hui.

    Fruit de deux années de recherche, le document de la Fabian Society «Partager le futur: les travailleurs et la technologie dans les années 2020» a déclaré que l’automatisation des technologies crée des risques accrus pour les groupes historiquement défavorisés.

    Entre autres preuves, il a cité des algorithmes d’apprentissage automatique qui éclairent les décisions de recrutement sur la base de données obsolètes et discriminatoires.

    “Les algorithmes et l’IA sont utilisés pour prendre des décisions qui changent la vie concernant le recrutement et la progression sur le lieu de travail, reproduisant les types de biais qui affectent la prise de décision humaine”, ont déclaré les auteurs.

    Il a ensuite mentionné le cas bien connu où Amazon a été contraint d’abandonner son logiciel de recrutement d’IA parce qu’il utilisait des données antérieures pour apprendre à rejeter les codeuses.

    “Mais des packages commerciaux similaires sont de plus en plus utilisés”, indique le rapport. “On dit à ces algorithmes d’exclure les informations sur le sexe, la race et d’autres caractéristiques couvertes par les lois sur l’égalité, mais nous avons entendu comment ils utilisent des données supposées non liées qui sont en fait corrélées, comme l’endroit où vit quelqu’un.”

    Le rapport, soutenu par le syndicat Community, indique qu’Unilever et Vodafone font partie des entreprises qui ont déclaré utiliser la technologie de reconnaissance faciale pour comparer les réponses physiques des personnes interrogées avec des traits supposés liés à la réussite au travail. Mais d’autres experts affirment que les expressions faciales humaines sont trop variées, en particulier entre les cultures et chez certaines personnes handicapées, pour que ces techniques soient exactes et non discriminatoires.

    << Sans intervention, une technologie biaisée risque de bloquer les groupes défavorisés hors du marché du travail en évolution; en veillant à ce qu'à court terme, ils soient confrontés à des obstacles supplémentaires à l'emploi en raison de la récession du COVID-19 et, à long terme, ils ne voient pas les avantages de innovation », indique le rapport, qui fait suite à une enquête menée par la députée travailliste et présidente du comité restreint des affaires intérieures, Yvette Cooper.

    Biais dans les algorithmes ML

    Le rapport intervient après que des experts aient affirmé à plusieurs reprises que les ensembles de données utilisés pour entraîner de nombreux modèles de ML utilisés par la reconnaissance d’image et les logiciels de caméra IA étaient biaisés vers les visages blancs, ce qui les rend sujets aux préjugés et plus susceptibles de discriminer les personnes. de couleur.

    Anima Anandkumar, professeur d’informatique à Caltech et directrice du groupe de recherche sur l’apprentissage automatique de Nvidia, a également souligné les problèmes de sexisme dans la vision par ordinateur, notant par exemple que “le recadrage d’images sur Twitter et d’autres plates-formes comme Google Actualités se concentre souvent sur le torse des femmes. plutôt que leurs têtes. “

    En juin, un outil connu sous le nom de PULSE utilisant StyleGAN – formé sur 70 000 images extraites de Flickr – a été découvert pour démontrer les préjugés raciaux, tendant à générer des images de Blancs.

    En juillet de cette année, la police de Detroit aurait procédé à deux arrestations injustifiées fondées sur la reconnaissance faciale lorsque les suspects ont été mal identifiés par un logiciel.

    En novembre, un examen du gouvernement britannique sur les biais dans la prise de décision algorithmique a révélé qu’il était “bien établi qu’il existe un risque que les systèmes algorithmiques puissent conduire à des décisions biaisées, la cause sous-jacente peut-être la plus importante étant l’encodage des biais humains existants en algorithmes. systèmes “.

    Il a recommandé une plus grande transparence dans la façon dont les modèles sont créés, ainsi que la tenue de comptes sur les entreprises qui construisent les modèles. Il a déclaré, en particulier, que des orientations supplémentaires sont nécessaires pour garantir que les outils de recrutement, par exemple, “ne font pas de discrimination involontaire contre des groupes de personnes, en particulier lorsqu’ils sont formés sur des données d’emploi historiques ou actuelles”. Vous pouvez trouver la critique ici.

    Impliquez les humains

    Plus généralement, la Fabian Society a déterminé que l’adoption de l’automatisation sur le lieu de travail était susceptible d’affecter de manière disproportionnée les groupes défavorisés et a fait valoir que ces effets sont exacerbés par la pandémie COVID-19.

    Le rapport proposait une série de solutions comprenant des investissements dans la formation et les compétences. Il a également déclaré que les employeurs devraient adopter un «partenariat sur le lieu de travail» et impliquer les travailleurs et les syndicats dans les décisions liées à la technologie.

    Malgré l’impact disproportionné de l’automatisation, les travailleurs apprécient les nouvelles technologies sur le lieu de travail, indique le rapport, soulignant que dans de nombreux cas, l’informatique a aidé les entreprises à continuer de travailler pendant la pandémie.

    Mais, comme de nombreux professionnels de l’informatique expérimentés ne le savent que trop bien, la conception de la technologie et la manière dont elle est introduite sont essentielles.

    “Les gens n’apprécient pas de devoir utiliser une technologie mal conçue qui est difficile à utiliser, qui tombe en panne ou qui fait des erreurs. Les travailleurs apprécient les nouvelles technologies quand ils les considèrent comme« adaptées à l’emploi »et ne les aiment pas quand elles sont dysfonctionnelles, inappropriées ou mal comprises par les gestionnaires »conclut le rapport. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *