Un chien de garde de la vie privée demande aux entreprises d’abandonner l’IA qui analyse les émotions

  • Français


  • Les entreprises devraient réfléchir à deux fois avant de déployer des systèmes d’analyse émotionnelle alimentés par l’IA sujets aux biais systémiques et autres snafus, a averti cette semaine l’Information Commissioner’s Office (ICO) du Royaume-Uni.

    Les organisations font l’objet d’une enquête si elles maintiennent et utilisent cette technologie de qualité inférieure qui met les gens en danger, a ajouté le chien de garde.

    Les algorithmes d’apprentissage automatique censés prédire les humeurs et les réactions d’une personne utilisent la vision par ordinateur pour suivre les regards, les mouvements du visage et le traitement audio pour évaluer l’inflexion et le sentiment général. Comme on peut l’imaginer, ce n’est pas nécessairement exact ou juste, et il peut y avoir des problèmes de confidentialité lors du traitement des données pour la formation et l’inférence.

    En effet, le sous-commissaire de l’ICO, Stephen Bonner, a déclaré que la technologie n’était pas infaillible, entraînant des biais systémiques, des inexactitudes ou une discrimination contre des groupes sociaux spécifiques. “Les développements sur le marché de la biométrie et de l’IA émotionnelle sont immatures. Ils ne fonctionneront peut-être pas encore, voire jamais”, a-t-il déclaré dans un communiqué.

    “Bien qu’il existe des opportunités, les risques sont actuellement plus grands. À l’ICO, nous craignons qu’une analyse incorrecte des données puisse entraîner des hypothèses et des jugements inexacts sur une personne et conduire à la discrimination”, a poursuivi son communiqué.

    Bonner a noté que les logiciels d’analyse émotionnelle sont souvent associés à des systèmes biométriques, collectant et stockant un plus large éventail d’informations personnelles au-delà des images faciales. Les fournisseurs de logiciels ne sont souvent pas transparents sur la manière dont ces données personnelles sont traitées ou enregistrées.

    “Les seuls déploiements biométriques durables seront ceux qui sont entièrement fonctionnels, responsables et soutenus par la science”, a-t-il déclaré. “Dans l’état actuel des choses, nous n’avons pas encore vu de technologie d’IA émotionnelle se développer de manière à satisfaire aux exigences de protection des données, et nous avons des questions plus générales sur la proportionnalité, l’équité et la transparence dans ce domaine.”

    Ce qui semble être une manière polie de dire : vous ne devriez utiliser que des modèles d’IA de lecture des émotions qui fonctionnent comme l’ICO s’y attend, et ces modèles n’existent pas, vous devez donc simplement arrêter ce que vous faites.

    L’organisme britannique de surveillance de la confidentialité des données devrait publier un rapport détaillant comment les données biométriques, y compris la reconnaissance faciale, l’identification des empreintes digitales et la reconnaissance vocale, devraient être traitées par les entreprises l’année prochaine au printemps.

    “L’ICO continuera à scruter le marché, en identifiant les parties prenantes qui cherchent à créer ou à déployer ces technologies, et en expliquant l’importance d’une confidentialité et d’une conformité accrues des données, tout en encourageant la confiance dans le fonctionnement de ces systèmes”, a ajouté Bonner.

    Les experts tirent la sonnette d’alarme sur l’analyse des sentiments et des émotions depuis des années. Les sentiments sont subjectifs et il est difficile de les interpréter avec précision. Les humains ne peuvent souvent pas le faire efficacement pour eux-mêmes ou pour les autres, sans parler des machines. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *