Les nombres imaginaires aident les IA à résoudre le problème très réel de l’imagerie contradictoire

  • Français


  • Boffins de l’Université Duke affirme avoir trouvé un moyen d’aider à protéger les intelligences artificielles contre les attaques de modification d’image contradictoires : en leur lançant quelques chiffres imaginaires.

    Les systèmes de vision par ordinateur qui reconnaissent les objets sont au cœur de toute une panoplie de nouvelles technologies brillantes, des magasins automatisés aux robots axes. Un déploiement de plus en plus large les rend de plus en plus intéressants pour les vauriens – et des attaques comme AMpLe Poltergeist montrent comment ils peuvent être trompés avec des résultats potentiellement mortels.

    “Nous voyons déjà des algorithmes d’apprentissage automatique mis en œuvre dans le monde réel qui prennent de vraies décisions dans des domaines tels que l’autonomie des véhicules et la reconnaissance faciale”, a déclaré Eric Yeats, doctorant à l’Université Duke, à la suite de la présentation des travaux de son équipe. à la 38e Conférence internationale sur l’apprentissage automatique. “Nous devons réfléchir à des moyens de nous assurer que ces algorithmes sont fiables pour s’assurer qu’ils ne peuvent causer aucun problème ou blesser qui que ce soit.”

    Le problème de la fiabilité : des attaques contradictoires qui modifient l’imagerie d’entrée d’une manière imperceptible à l’œil humain. Dans un exemple d’un article de 2015, une image clairement reconnaissable d’un panda, correctement étiquetée par l’algorithme de reconnaissance d’objets avec un niveau de confiance de 57,7%, a été modifiée avec du bruit – faisant apparaître le panda toujours très clairement au algorithme comme un gibbon avec une confiance inquiétante de 93,3%.

    Conseil d’orientation

    Le problème réside dans la façon dont les algorithmes sont entraînés, et c’est une modification du processus d’entraînement qui pourrait le résoudre – en introduisant quelques nombres imaginaires dans le mélange.

    Le travail de l’équipe se concentre sur la régularisation des pentes, une technique d’entraînement conçue pour réduire la “pente” du terrain d’apprentissage – comme faire rouler un rocher le long d’un chemin pour atteindre le fond, au lieu de le jeter par-dessus la falaise et d’espérer le meilleur. “La régularisation de gradient rejette toute solution qui renvoie un gradient important à travers le réseau de neurones”, a expliqué Yeats.

    “Cela réduit le nombre de solutions auxquelles il pourrait arriver, ce qui a également tendance à diminuer la façon dont l’algorithme parvient réellement à la bonne réponse. C’est là que les valeurs complexes peuvent aider. Étant donné les mêmes paramètres et opérations mathématiques, l’utilisation de valeurs complexes est plus efficace de résister à cette baisse de performance.”

    En ajoutant seulement deux couches de valeurs complexes, composées de composants de nombres réels et imaginaires, au processus de formation, l’équipe a découvert qu’elle pouvait améliorer la qualité des résultats de 10 à 20 pour cent – et aider à éviter le problème rocheux en prenant ce qu’il pense que c’est un raccourci et finit par s’écraser sur le toit d’une très mauvaise réponse.

    “Les réseaux de neurones à valeur complexe ont le potentiel d’explorer un paysage plus” en terrasses “ou” en plateaux “”, a ajouté Yeates. “Et le changement d’altitude permet au réseau de neurones de concevoir des choses plus complexes, ce qui signifie qu’il peut identifier plus d’objets avec plus de précision.”

    Le document et un flux de sa présentation à la conférence sont disponibles sur le site Web de l’événement. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *