Intel dit qu’il peut détecter la vidéo deepfake en temps réel •

  • Français


  • Intel affirme avoir développé un modèle d’IA capable de détecter en temps réel si une vidéo utilise la technologie deepfake en recherchant des changements subtils de couleur qui seraient évidents si le sujet était un être humain vivant.

    FakeCatcher est revendiqué par le géant de la fabrication de puces comme étant capable de renvoyer des résultats en quelques millisecondes et d’avoir un taux de précision de 96 %.

    Ces dernières années, on s’est inquiété des soi-disant vidéos deepfake, qui utilisent des algorithmes d’intelligence artificielle pour générer de fausses images de personnes. La principale préoccupation est centrée sur le fait qu’il pourrait être utilisé pour donner l’impression que des politiciens ou des célébrités expriment des déclarations ou font des choses qu’ils n’ont pas réellement dites ou faites.

    ICYMI: Une mère est accusée d’avoir harcelé les rivales de pom-pom girl de sa fille avec des vidéos deepfake humiliantes

    LIRE LA SUITE

    “Les vidéos Deepfake sont partout maintenant. Vous les avez probablement déjà vus ; des vidéos de célébrités faisant ou disant des choses qu’elles n’ont jamais réellement faites », a déclaré Ilke Demir, chercheur au sein du personnel d’Intel Labs. Et cela n’affecte pas seulement les célébrités, même les citoyens ordinaires en ont été victimes.

    Selon le fabricant de puces, certains détecteurs basés sur l’apprentissage en profondeur analysent les données vidéo brutes pour essayer de trouver des signes révélateurs qui l’identifieraient comme un faux. En revanche, FakeCatcher adopte une approche différente, impliquant l’analyse de vidéos réelles à la recherche d’indices visuels indiquant que le sujet est réel.

    Cela inclut des changements subtils de couleur dans les pixels d’une vidéo dus au flux sanguin du cœur qui pompe le sang dans tout le corps. Ces signaux de flux sanguin sont collectés sur tout le visage et des algorithmes les traduisent en cartes spatio-temporelles, a déclaré Intel, permettant à un modèle d’apprentissage en profondeur de détecter si une vidéo est réelle ou non. Certains outils de détection nécessitent de télécharger du contenu vidéo pour analyse, puis d’attendre des heures pour obtenir des résultats, a-t-il affirmé.

    Cependant, il n’est pas impossible d’imaginer que quiconque ayant des motifs de créer des faux vidéo pourrait être en mesure de développer des algorithmes qui peuvent tromper FakeCatcher, avec suffisamment de temps et de ressources.

    Intel a naturellement fait un usage intensif de ses propres technologies dans le développement de FakeCatcher, y compris la boîte à outils open source OpenVINO pour optimiser les modèles d’apprentissage en profondeur et OpenCV pour le traitement d’images et de vidéos en temps réel. Les équipes de développeurs ont également utilisé la plate-forme Open Visual Cloud pour fournir une pile logicielle intégrée pour les processeurs Xeon Scalable d’Intel. Le logiciel FakeCatcher peut exécuter simultanément jusqu’à 72 flux de détection différents sur des processeurs évolutifs Xeon de 3e génération.

    Selon Intel, il existe plusieurs cas d’utilisation potentiels pour FakeCatcher, notamment empêcher les utilisateurs de télécharger des vidéos deepfake nuisibles sur les réseaux sociaux et aider les organes de presse à éviter de diffuser du contenu manipulé. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *