Boffins conçoit un système d’alerte précoce pour les fausses nouvelles: l’IA touche des domaines qui semblent sus

  • FrançaisFrançais


  • Des universitaires aux États-Unis et au Royaume-Uni ont créé un outil d’apprentissage automatique pour prédire quand les domaines Internet nouvellement enregistrés seront utilisés pour diffuser de fausses informations, dans l’espoir que ces sites puissent être bloqués ou fermés avant qu’ils ne polluent les canaux de communication en ligne.

    Dans un document de travail récemment publié, “Real-Time Prediction of Online False Information Purveyors and their Characteristics”, Anil R Doshi (UCL School of Management), Sharat Raghavan (University of California, Berkeley) et William Schmidt (Cornell University) décrivent comment ils ont utilisé les données d’enregistrement de domaine, en conjonction avec les données de navigation Web de Mozilla, pour construire un classificateur d’apprentissage automatique capable d’anticiper les sites Web susceptibles de cracher du contenu trompeur.

    «En utilisant les données d’enregistrement de domaine, nous pouvons fournir un système d’alerte précoce utilisant des données qui sont sans doute difficiles à manipuler pour les acteurs», a déclaré Doshi dans un communiqué. “Les acteurs qui produisent de fausses informations ont tendance à préférer rester cachés et nous utilisons cela dans notre modèle.”

    «Fausse information» est un terme que les boffins utilisent pour décrire la désinformation, la désinformation et les nouvelles inventées – un contenu bidon, conçu pour ressembler à un reportage légitime, qui est produit pour servir un agenda plutôt que l’intérêt public. De telles peluches scandaleuses sont devenues un sujet de préoccupation majeur après les élections américaines de 2016, objet de ce que le bureau américain du directeur du renseignement national a décrit. [PDF] comme une campagne d’influence russe qui combinait des cyberopérations secrètes «avec les efforts manifestes des agences gouvernementales russes, des médias financés par l’État, des intermédiaires tiers et des utilisateurs rémunérés des médias sociaux ou« trolls ».

    Depuis lors, les fausses informations ont suscité une inquiétude croissante et un examen minutieux de la part des universitaires, des décideurs, des défenseurs de la technologie, des utilisateurs d’Internet et des entreprises. Certains bénéficiaires de la distribution de mensonges stimulant l’engagement comme Google, Facebook et Twitter, cependant, ont été lents à mettre en œuvre des contre-mesures de réduction des revenus.

    Alors, dans quelle mesure avez-vous bloqué les fausses nouvelles, Google? Facebook? Les web goliaths font leurs devoirs d’auto-évaluation en Europe

    LIRE LA SUITE

    Doshi, Raghavan et Schmidt ont choisi de se concentrer sur le rôle que jouent les sites Web pour faciliter la diffusion de fausses informations. Les sites Web, observent-ils dans leur article, sont rapides à mettre en place et ne coûtent rien à abandonner. Et une fois que les sites diffusant des mensonges ont semé le système, les créateurs de désinformation peuvent s’appuyer sur la nature virale de la communication en réseau pour transmettre leur message sur les réseaux sociaux.

    L’espoir des chercheurs est de repérer les sites Web conçus pour les méfaits dès le début, avant que les dommages ne soient causés.

    «Notre système d’identification précoce peut aider les décideurs à déployer leurs ressources limitées plus rapidement et plus efficacement en hiérarchisant les domaines pour une sanction potentielle ou une surveillance accrue», explique le document.

    Pour construire leur classificateur, les eggheads se sont appuyés sur divers points de données disponibles à partir des enregistrements du domaine public, y compris s’il y avait un nom individuel ou institutionnel dans le champ de contact de facturation, l’extension de domaine, le bureau d’enregistrement, l’état d’enregistrement et le pays, et l’inclusion de termes politiques dans le nom de domaine. Ce type d’analyse peut être effectué par un humain qualifié, bien que l’apprentissage automatique apporte l’automatisation, ce qui est essentiel pour détecter et bloquer rapidement les sites malveillants avant qu’ils ne deviennent viraux.

    Les données des chercheurs suggèrent que leur classificateur d’apprentissage automatique fonctionne raisonnablement bien, identifiant correctement 92% des faux domaines d’informations et 96,2% des domaines d’informations légitimes mis en place pour les élections américaines de 2016.

    Sean Gallagher, un chercheur sur les menaces chez SophosLabs, le business de la sécurité, a déclaré Le registre que la technique des chercheurs est similaire à celle utilisée par les professionnels de l’Infosec et a averti que la détection de la désinformation n’est pas intrinsèquement fiable car ceux qui la sous-tendent s’adaptent aux défenses.

    «La technique d’apprentissage automatique décrite dans cet article ressemble étroitement au travail effectué pour détecter les domaines potentiels de phishing et les sites Web frauduleux», a-t-il déclaré. «Les tactiques de désinformation, comme celles des autres menaces Internet, sont fluides, et la variation des tactiques pourrait rendre difficile un système de détection précis à 100%, d’autant plus qu’il existe d’autres canaux de désinformation.

    Les universitaires impliqués semblent le comprendre. Ils s’attendent à ce que leur classificateur d’apprentissage automatique soit utilisé en conjonction avec d’autres outils tels que les classificateurs basés sur du texte, dans l’espoir que «les décideurs politiques puissent atténuer la possibilité de prendre des mesures sur la base d’éventuelles classifications faussement positives, qui sont inhérentes à tout système d’apprentissage automatique. ” ®

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *