Être invité à noter les fausses nouvelles peut aider à empêcher les utilisateurs de médias sociaux de les partager, selon une étude

  • FrançaisFrançais


  • Des recherches comprenant une expérience sur le terrain sur Twitter ont révélé que les organisations de médias sociaux pourraient avoir une troisième option qui n’implique pas le banhammer ou une attitude de laisser-faire pour lutter contre le fléau des fausses nouvelles qui infectent les plateformes.

    Pris en sandwich entre un instinct pour une approche pratique moins coûteuse de la surveillance de l’information et la perspective désagréable d’un contrôle draconien du contenu des nouvelles, les géants des médias sociaux tels que Twitter, Facebook, YouTube et Instagram, qui comptent des milliards d’utilisateurs dans le monde entier, ont fait peu à ce sujet.

    Ce n’est que relativement récemment que Facebook a lancé une campagne pour aider les utilisateurs à repérer les fausses nouvelles.

    Cependant, Gordon Pennycook, professeur à l’Université canadienne de Regina, et son équipe ont montré que les entreprises de médias sociaux pourraient faire plus pour endiguer le flot de fausses nouvelles.

    “Bien que la désinformation ne soit pas nouvelle, le sujet a pris de l’importance en 2016 après l’élection présidentielle américaine et le référendum sur le Brexit au Royaume-Uni, au cours duquel des histoires entièrement fabriquées (présentées comme des informations légitimes) ont été largement diffusées via les médias sociaux”, a déclaré le journal publié dans Nature.

    Les chercheurs ont d’abord réalisé des expériences d’enquête dans lesquelles des Américains utilisant le site Web de crowdsourcing Amazon Mechanical Turk pour recruter des travailleurs ont été invités à évaluer l’exactitude des informations et à déterminer s’ils les partageraient, en contrôlant leur affiliation politique.

    Bien que les vrais titres aient été plus souvent considérés comme “exacts” que les faux titres, les sujets expérimentaux étaient deux fois plus susceptibles d’envisager de partager de faux titres correspondant à leurs perspectives politiques qu’ils ne l’étaient à évaluer ces titres comme exacts, ce qui implique qu’à un certain niveau, ils étaient satisfaits. pour partager des informations qu’ils savaient inexactes.

    Cependant, la plupart d’entre eux ont également déclaré qu’il était “extrêmement important” de ne partager que des informations exactes sur les réseaux sociaux, ce qui a amené les chercheurs à conclure que certaines personnes ne diffusent peut-être pas intentionnellement de la désinformation.

    Partager tout en étant “ distrait ”

    Une expérience sur le terrain sur Twitter a impliqué 5 379 utilisateurs qui avaient récemment partagé des liens vers des sites Web qui produisent régulièrement du contenu trompeur et hyper partisan. Ils ont reçu un message non sollicité leur demandant d’évaluer l’exactitude d’un seul titre apolitique. Les chercheurs ont ensuite comparé la qualité des sites d’information partagés dans les 24 heures suivant la réception du message aux sites partagés par les participants qui n’avaient pas encore reçu le message.

    La recherche a montré que lorsque les individus recevaient un message privé leur demandant d’évaluer l’exactitude des informations, l’exactitude et la qualité des sources d’informations qu’ils partageaient s’amélioraient.

    “Ces études suggèrent que lorsqu’ils décident de ce qu’ils doivent partager sur les réseaux sociaux, les gens sont souvent distraits de la précision du contenu”, indique le journal.

    La conception actuelle des plates-formes de médias sociaux signifie que les utilisateurs obtiennent instantanément des commentaires sur les réseaux sociaux pour partager des extraits du mélange d’actualités sérieuses et de contenu émotionnellement engageant qu’ils ont rapidement parcouru.

    C’est un modèle qui «peut décourager les gens de réfléchir à l’exactitude», ont-ils déclaré.

    * Visage choqué *

    “Mais ce n’est pas forcément le cas. Notre traitement se traduit facilement par des interventions que les plateformes de médias sociaux pourraient utiliser pour accroître l’attention des utilisateurs sur la précision. Par exemple, les plateformes pourraient demander périodiquement aux utilisateurs d’évaluer l’exactitude des titres sélectionnés au hasard, leur rappelant ainsi précision d’une manière subtile », a déclaré le journal.

    Cela pourrait également éviter que les utilisateurs ne réagissent contre les conseils qui démystifient les fausses nouvelles, ce qui a été un phénomène enregistré. Les auteurs ont cité un article à venir *, “Conséquences perverses de la démystification dans une expérience de terrain sur Twitter”, qui montre que “le fait d’être corrigé pour avoir publié de fausses nouvelles augmente le partage ultérieur de contenu de mauvaise qualité, partisan et toxique”.

    En utilisant l’approche consistant à rappeler aux utilisateurs des médias sociaux l’exactitude, les auteurs ont écrit, «pourrait potentiellement augmenter la qualité des informations circulant en ligne sans compter sur une institution centralisée pour certifier la vérité et censurer le mensonge».

    Nous ne pouvons qu’espérer.

    Quelle que soit la solution, le problème des fausses nouvelles est plus qu’un irritant politique. YouTube a supprimé plus de 30000 vidéos de vaccination contre le COVID-19 trompeuses au cours des cinq derniers mois, selon des rapports.

    Au plus fort de la pandémie mondiale de COVID-19 en avril, 82 sites Web diffusant de la désinformation sur la santé ont attiré environ 460 millions de vues sur Facebook. Une étude menée par l’organisation militante mondiale basée aux États-Unis Avaaz a révélé que les fausses allégations de santé sur Facebook avaient généré environ 3,8 milliards de vues en un an.

    La dernière étude pourrait fournir un outil pour aider les géants des médias sociaux à freiner la propagation de la désinformation sur leurs plateformes. Qu’ils choisissent de l’utiliser ou non, cela dépend entièrement de leurs modèles commerciaux. ®

    Note de démarrage

    * Nous n’avons pas encore de lien: il sera présenté à la conférence CHI de cette année sur les facteurs humains dans les systèmes informatiques, qui doit avoir lieu en mai 2021.

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *