Les algorithmes d’IA incroyablement bons pour repérer votre race à partir d’analyses médicales, préviennent les boffins

  • FrançaisFrançais



  • En bref Les réseaux de neurones peuvent deviner correctement la race d’une personne simplement en regardant ses radiographies corporelles et les chercheurs n’ont aucune idée de comment cela peut le dire.

    Certaines caractéristiques biologiques peuvent donner des indices sur l’origine ethnique d’une personne, comme la couleur de ses yeux ou de sa peau. Mais au-dessous de tout cela, il est difficile pour les humains de le dire. Ce n’est pas le cas pour les algorithmes d’IA, selon une étude qui n’a pas encore été évaluée par des pairs.

    Une équipe de chercheurs a formé cinq modèles différents sur des radiographies de différentes parties du corps, y compris la poitrine et les mains, puis a étiqueté chaque image en fonction de la race du patient. Les systèmes d’apprentissage automatique ont ensuite été testés pour déterminer dans quelle mesure ils pouvaient prédire la race de quelqu’un en se basant uniquement sur leurs analyses médicales.

    Ils étaient étonnamment précis. Le moins performant était capable de prédire la bonne réponse 80 % du temps, et le meilleur était capable de le faire 99 %, selon le journal.

    “Nous démontrons que les systèmes d’IA médicale peuvent facilement apprendre à reconnaître l’identité raciale dans les images médicales, et que cette capacité est extrêmement difficile à isoler ou à atténuer”, prévient l’équipe. [PDF].

    « Nous recommandons fortement à tous les développeurs, régulateurs et utilisateurs impliqués dans l’analyse d’images médicales d’envisager l’utilisation de modèles d’apprentissage en profondeur avec une extrême prudence. les données d’image seules, se généralisent à de nouveaux contextes et peuvent fournir un mécanisme direct pour perpétuer ou même aggraver les disparités raciales qui existent dans la pratique médicale actuelle.

    Interdire les outils de nudité de l’IA, déclare un député britannique

    Maria Miller, députée de Basingstoke pour le Parti conservateur, estime que les algorithmes d’apprentissage automatique qui génèrent de fausses images de nu devraient être interdits.

    Ces soi-disant « deepfakes » ont été falsifiés à l’aide de logiciels d’IA pendant des années. Plusieurs outils sur internet qui permettent aux pervers de nourrir les algorithmes d’une image de quelqu’un et d’en obtenir une image nue en retour. Le visage reste le même, mais le corps est maquillé.

    Miller est connu pour s’exprimer sur le revenge porn. Elle croit que même si les images générées par ordinateur sont fausses, le mal infligé aux victimes est réel.

    “Pour le moment, créer, prendre ou distribuer sans consentement des images sexuelles intimes en ligne ou par le biais de la technologie numérique est pour la plupart en dehors de la loi”, a-t-elle déclaré au Beeb.

    “Ce devrait être une infraction sexuelle de distribuer des images sexuelles en ligne sans consentement, reflétant la gravité de l’impact sur la vie des gens.” Miller veut soulever la question dans un débat parlementaire et introduire une nouvelle législation pour interdire les logiciels de deepfake dans le prochain projet de loi britannique sur la sécurité en ligne.

    Les chercheurs en IA de Facebook veulent fouiller dans vos discussions secrètes cryptées sans les décrypter

    Facebook a employé une équipe d’ingénieurs en intelligence artificielle pour trouver des moyens d’analyser les messages cryptés sans les déchiffrer au préalable.

    Le cryptage homomorphe pourrait aider les entreprises de médias sociaux à renifler via les chats WhatsApp pour collecter des données pouvant être utilisées pour mieux cibler les utilisateurs avec des publicités, selon The Information [paywalled].

    Facebook pourrait, en théorie, déterminer quels produits et services les gens sont intéressés par l’utilisation de techniques de cryptage homomorphes. Des publicités pour ces produits pourraient alors apparaître chaque fois qu’ils se connectaient à leurs comptes de médias sociaux.

    L’effort semble être dirigé par Kristin Lautner, une experte en cryptographie qui a récemment quitté Microsoft après deux décennies pour rejoindre Facebook à la tête de son groupe de recherche West Coast AI. Un porte-parole de Facebook, cependant, a déclaré à la publication que le projet était “trop ​​tôt pour que nous puissions envisager un cryptage homomorphe pour WhatsApp pour le moment”. ®

    L'équipe de Comparaland

    Rédacteur web depuis 2009 et webmestre depuis 2011.

    Je m'intéresse à tous les sujets comme la politique, la culture, la géopolitique, l'économie ou la technologie. Toute information permettant d'éclairer mon esprit et donc, le vôtre, dans un monde obscur et à la dérive. Je suis l'auteur de plusieurs livre

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *