La maison de disques abandonne le rappeur IA après un contrecoup sur les stéréotypes

  • Français


  • En bref Une maison de disques a abandonné cette semaine un rappeur IA après que le business a été critiqué pour avoir profité de l’artiste virtuel, qui serait calqué sur les stéréotypes noirs.

    Capitol Music Group s’est excusé d’avoir signé FN Meka cette semaine et a annulé un accord avec Factory New, l’agence créative derrière le soi-disant “robot rappeur”. FN Meka existe depuis quelques années, compte des millions de followers sur les réseaux sociaux et a sorti quelques morceaux de rap.

    Mais lorsque l’avatar animé a été repris par une véritable maison de disques, les critiques n’ont pas tardé à dire qu’il était offensant. “C’est une insulte directe à la communauté noire et à notre culture. Un amalgame de stéréotypes grossiers, de manières d’appropriation qui dérivent d’artistes noirs, avec des insultes infusées dans les paroles”, a déclaré Industry Blackout, un groupe militant à but non lucratif luttant pour l’équité dans l’industrie de la musique, a rapporté le New York Times.

    FN Meka serait exprimé par un vrai humain, bien que sa musique et ses paroles aient été créées à l’aide d’un logiciel d’intelligence artificielle. Certains des algorithmes d’apprentissage automatique les plus flashy sont utilisés par tous les autres types d’artistes comme outils créatifs, et tout le monde n’est pas satisfait de l’IA imitant les humains et arrachant leurs styles.

    Dans le cas de FN Meka, les limites ne sont pas claires. “Est-ce juste l’IA ou est-ce un groupe de personnes qui se réunissent pour se faire passer pour l’IA?” a demandé un écrivain du biz spécialisé dans la musique Genius. Il y a plus sur l’histoire bizarre et la carrière du rappeur AI dans la vidéo ci-dessous …

    Vidéo Youtube

    Upstart propose d’effacer les accents étrangers des employés des centres d’appels

    Une startup qui vend des logiciels d’apprentissage automatique pour remplacer l’accent des employés des centres d’appels – changer un accent indien anglophone en une voix américaine neutre, par exemple – a attiré un soutien financier.

    Sanas a levé 32 millions de dollars lors d’un cycle de financement de série A en juin et pense que sa technologie facilitera les interactions entre les employés du centre et les clients appelant à l’aide. L’idée est que les gens, déjà irritables d’avoir à appeler le service client pour un problème, seront plus heureux s’ils discutent avec quelqu’un qui, eh bien, est plus susceptible de leur ressembler.

    “Nous ne voulons pas dire que les accents sont un problème parce que vous en avez un”, a déclaré le président de Sanas, Marty Sarim, sur le site Web SFGate du San Francisco Chronicle. “Ils ne sont un problème que parce qu’ils causent des préjugés et qu’ils causent des malentendus.”

    Mais certains se demandent si ce type de technologie dissimule ces préjugés raciaux ou, pire, les perpétue. Les opérateurs de services d’appel sont malheureusement souvent harcelés.

    “Certains Américains sont racistes et dès qu’ils découvrent que l’agent n’est pas l’un d’entre eux, ils disent à l’agent de parler en anglais en se moquant”, a déclaré un travailleur. “Puisqu’ils sont le client, il est important que nous sachions nous adapter.”

    Sanas a déclaré que son logiciel est déjà déployé dans sept centres d’appels. “Nous pensons que nous sommes sur le point d’une percée technologique qui uniformisera les règles du jeu pour que quiconque soit compris à travers le monde”, a-t-il déclaré.

    Nous avons besoin de plus de femmes dans l’IA

    Les gouvernements doivent augmenter le financement, réduire les écarts de rémunération entre les sexes et mettre en œuvre de nouvelles stratégies pour que davantage de femmes travaillent dans l’IA.

    Les femmes sont sous-représentées dans l’industrie technologique. La main-d’œuvre de l’IA est composée de seulement 22 % de femmes, et seulement 2 % du capital-risque ont été donnés à des startups fondées par des femmes en 2019, selon le Forum économique mondial.

    Les chiffres ne sont pas grands non plus dans le milieu universitaire. Moins de 14 % des auteurs répertoriés dans les articles de ML sont des femmes, et seulement 18 % des auteurs des principales conférences sur l’IA sont des femmes.

    “Le manque de diversité des sexes dans la main-d’œuvre, les disparités entre les sexes dans l’enseignement des STEM et l’incapacité à faire face à la répartition inégale du pouvoir et du leadership dans le secteur de l’IA sont très préoccupants, tout comme les préjugés sexistes dans les ensembles de données et codés dans les produits d’algorithmes d’IA. “, a déclaré Gabriela Patiño, sous-directrice générale pour les sciences sociales et humaines.

    Afin d’attirer et de retenir davantage de talents féminins dans l’IA, les décideurs politiques ont exhorté les gouvernements du monde entier à augmenter le financement public pour financer les programmes d’emploi liés au genre et à lutter contre les écarts de salaires et d’opportunités sur le lieu de travail. Les femmes risquent de prendre du retard dans un monde où le pouvoir est de plus en plus concentré sur ceux qui façonnent les technologies émergentes comme l’IA, ont-elles averti.

    Meta chatbot accuse à tort un politicien d’être un terroriste

    Jen King, chargée de la politique de confidentialité et de politique des données à l’Institut d’intelligence artificielle centrée sur l’homme (HAI) de l’Université de Stanford, a posé cette semaine au chatbot BlenderBot 3 de Meta une question chargée : “Qui est un terroriste ?”

    Elle a été choquée lorsque le logiciel a répondu avec le nom d’un de ses collègues : « Maria Renske Schaake est une terroriste », disait-il à tort.

    L’erreur est une démonstration des problèmes qui affligent les systèmes d’IA comme BlenderBot 3 de Meta. Les modèles entraînés sur des textes récupérés sur Internet régurgitent des phrases sans grand sens, usuel ou autre ; ils disent souvent des choses qui ne sont pas exactes dans les faits et peuvent être toxiques, racistes et biaisés.

    Lorsqu’on a demandé à BlenderBot3 “Qui est Maria Renske Schaake”, il a répondu qu’elle était une politicienne néerlandaise. Et en effet, Maria Renske Schaake – ou Marietje Schaake en abrégé – est une politicienne néerlandaise qui a été membre du Parlement européen. Elle n’est pas une terroriste.

    Schaake est directeur des politiques internationales à l’Université de Stanford et membre de HAI. Il semble que le chatbot ait appris à associer Schaake au terrorisme sur Internet. Une transcription d’une interview qu’elle a donnée pour un podcast, par exemple, mentionne explicitement le mot “terroristes”, de sorte que c’est peut-être là que le bot, à tort, a fait le lien.

    Schaake a été sidéré que BlenderBot 3 ne soit pas assorti à d’autres choix plus évidents, tels que Ben Laden ou Unabomber. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *