Photo pixélisée générée par l’IA d’AOC dans un bikini tiré du papier mettant en évidence le danger des photos générées par l’IA

  • FrançaisFrançais


  • En bref L’intelligence artificielle d’aujourd’hui peut compléter automatiquement une photo du visage de quelqu’un, générant ce que le logiciel prédit est le reste de son corps.

    Comme l’a souligné un article universitaire, cependant, ces réseaux de neurones sont biaisés, probablement à partir de leurs données d’entraînement. Cela signifie que lorsque vous montrez ce code au visage d’une femme, il est susceptible de la compléter automatiquement en bikini ou dans d’autres vêtements révélateurs. Les Blancs ont tendance à être montrés tenant des outils tandis que les Noirs sont représentés avec des armes.

    Pour souligner ce problème, les auteurs du journal basés aux États-Unis, Ryan Steed de la CMU et Aylin Caliskan de l’Université George Washington, ont montré à l’iGPT générateur d’images d’OpenAI une photo de la tête d’Alexandria Ocasio-Cortez, à partir d’une séance photo dans laquelle elle portait une tenue professionnelle, et le logiciel l’a recréée dans diverses poses, dont la majorité était en bikini ou en haut décolleté. Ces images truquées ont été incluses dans le papier bien que pixélisées.

    Cela “montre comment l’application imprudente et contraire à l’éthique d’un modèle génératif comme iGPT pourrait produire de fausses représentations sexualisées de femmes (dans ce cas, une politicienne)”, ont noté les chercheurs.

    facial_recog

    Le MIT s’excuse et extrait en permanence un énorme ensemble de données hors ligne qui a appris aux systèmes d’IA à utiliser des insultes racistes et misogynes

    LIRE LA SUITE

    Le document a été soumis à la Conférence ACM sur l’équité, la responsabilité et la transparence, et a attiré l’attention du public après avoir été téléchargé sur Arxiv et couvert la semaine dernière dans MIT Tech Review. C’était aussi souligné aux universitaires que ce n’était peut-être pas une si bonne idée, du point de vue éthique, de vulgariser la capacité des systèmes d’IA à simuler les images d’un représentant démocrate américain de premier plan qui fait déjà face à un barrage de harcèlement en ligne.

    Caliskan a reconnu ces préoccupations, et m’a dit le duo soumettra à nouveau son article à la conférence ACM avec l’image d’exemple supprimée. La version pré-imprimée d’Arxiv a également été mise à jour en conséquence.

    Le couple a étudié le SimCLR de Google ainsi que l’iGPT d’OpenAI. Ces derniers, par exemple, représentaient des femmes en maillot de bain ou en haut décolleté 53% du temps, tandis que les hommes n’étaient montrés torse nu ou en vêtements révélateurs que 7,5% du temps. Les hommes portaient des costumes ou des vêtements propres à leur carrière 42,5% du temps. OpenAI discute des biais de son logiciel ici.

    “Ce comportement pourrait résulter de la représentation sexualisée de personnes, en particulier de femmes, dans des images Internet”, ont écrit les chercheurs, “et sert de rappel de l’histoire controversée de la vision par ordinateur avec des images centrales et des images objectivantes de Playboy.” Ils ont conclu: “Ces résultats constituent une mise en garde pour les praticiens de la vision par ordinateur qui utilisent l’apprentissage par transfert: les modèles pré-formés peuvent intégrer tous les types de préjugés humains nuisibles de la façon dont les gens sont représentés dans les données de formation, et les choix de conception de modèles déterminent si et comment ces biais. se propagent dans les dommages en aval. “

    L’audit d’analyse faciale HireVue remis en question

    Bien que la start-up RH controversée HireVue ait conservé une fonction d’analyse faciale dans son logiciel qui évalue les performances potentielles des candidats à un poste, elle a défendu sa technologie en affirmant qu’un audit externe a montré que ses algorithmes ne présentaient aucun biais – mais cela ne semble peut-être pas être le cas.

    Cette enquête, menée par O’Neil Risk Consulting & Algorithmic Auditing (ORCAA), est désormais publique mais vous devez fournir les coordonnées pour la récupérer. «Après avoir consulté une copie de l’audit ORCAA, je ne pense pas qu’il étaye la conclusion selon laquelle toutes les évaluations de HireVue sont impartiales», a écrit Alex Engler, AI Data & Democracy Fellow à la Brookings Institution, un groupe de réflexion sur la recherche. Compagnie rapide.

    «L’audit était étroitement concentré sur un cas d’utilisation spécifique, et il n’a pas examiné les évaluations pour lesquelles HireVue a été critiquée, qui incluent l’analyse faciale et les prévisions de performance des employés.»

    Bien que HireVue ait cessé d’utiliser la reconnaissance faciale sur les candidats à un emploi, il continue d’utiliser d’autres algorithmes d’apprentissage automatique pour analyser les candidats sur leur style de parole et leurs tonalités vocales.

    Suivi du calcul IA à travers le monde

    L’Organisation de coopération et de développement économiques (OCDE) met en place un groupe de travail pour mesurer et surveiller la quantité de puissance de calcul qu’un pays consacre à l’exploitation de la technologie de l’IA.

    Les réseaux neuronaux ont augmenté en taille et en complexité à mesure que les algorithmes s’améliorent, que les données d’entraînement augmentent et que le matériel informatique fournit la capacité de stockage, la bande passante et la puissance de traitement nécessaires pour tout rassembler.

    Tout cela nécessite des systèmes et de l’énergie, et ce n’est pas quelque chose que les nations peuvent ignorer lors de la planification des investissements publics et de la stratégie.

    «Pensez-y de cette façon – si personne ne mesurait des ressources comme l’électricité ou le pétrole, il serait difficile d’élaborer une politique nationale et internationale autour de ces choses», Jack Clark, ancien directeur de la politique d’IA chez OpenAI et ex-Reg hack travaillant sur le projet de l’OCDE, a déclaré VentureBeat.

    L’IA redonne vie à un chanteur coréen mort

    Supertone, une startup sud-coréenne, a recréé la voix d’un chanteur mort en utilisant l’apprentissage automatique pour une prochaine émission de télévision.

    Kim Kwang-seok, qui s’est suicidé en 1996, sera ramené sur scène pour chanter une nouvelle chanson avec une pop star vivante pour un épisode intitulé Competition of the Century: AI vs Human. L’émission se concentrera sur les réalisations des ordinateurs d’aujourd’hui et comparera leurs capacités à celles des mortels.

    Supertone a déclaré qu’il utilisait un modèle de synthèse vocale chantante, qui, comme son nom l’indique, apprend à imiter les voix des gens à partir de leur chant. Le système a été pré-formé sur 100 chansons par 20 chanteurs avant d’être adapté au style de Kim Kwang-seok, a rapporté CNN pour la première fois.

    Vous trouverez ci-dessous un aperçu de l’émission télévisée – passez à 37 secondes dans le clip pour entendre une démo. ®

    Vidéo Youtube

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *