Une équipe d’universitaire a réalisé une évaluation quantitative inédite des fausses informations politiques sur le réseau social. Sur près de 14 millions de posts contenant des images, 23% sont trompeurs.
La proportion parle d’elle-même : sur 14 millions de posts Facebook à contenu politique, 23% sont de fausses informations. C’est le résultat d’une étude inédite par son ampleur menée par trois chercheurs spécialistes de médias et de numérique à l’université A&M du Texas, à l’université Columbia de New York et à l’université George Washington, à Washington.
Parue fin février 2023 dans le Journal of Communication, elle porte sur la campagne présidentielle américaine de 2020 et se concentre sur la désinformation visuelle, à savoir celle qui est véhiculée par des images et des vidéos, et pas seulement du texte : images truquées, mèmes, images authentiques avec légendes et commentaires trompeurs, captures d’écran, etc.
Pas moins de 13.723.654 de posts Facebook de ce type, publiés entre août et octobre 2020 sur 14.532 pages et dans 11.5454 groupes publics, ont été passés au crible. D’après les chercheurs, ce volume de données représente quasiment tout ce que Facebook compte d’engagement des internautes sur des contenus publics à caractère politiques sur ses pages.
De la désinformation visant le personnel politique
Les images dites « politiques » de ce corpus font référence au gouvernement américain et ses institutions, à des sujets de politique américaine et à des personnalités politiques (Joe Biden, Hillary Clinton, Barack Obama…). Celles-ci ont été identifiées par la technologie de reconnaissance faciale Rekognition, d’Amazon Web Service, puis les chercheurs les ont classées en fonction du nombre de fois où elles apparaissaient dans les posts. Après quoi, ils ont retenu 572.857 posts contenant des images des 100 premières, créant ainsi un sous-corpus dédié à la désinformation visant le personnel politique.
Du corpus complet de près de 14 millions de posts, l’équipe a isolé au hasard un échantillon d’un millier d’images politiques. Elle a procédé de même avec les images de personnalités. Deux autres sous-corpus ont été constitués : l’un avec les 300 images les plus repostées parmi celles qui ont été publiées au sein des groupes publics, même chose avec des pages de membres du réseau social.
Quant à la désinformation, les chercheurs y incluent les théories du complot, des reprises de campagnes déjà connues de désinformation politiques, des « affirmations dont on peut démontrer qu’elles sont fausses » ou des faits rapportés dans un contexte trompeur. En vrac : le fils de Joe Biden, Hunter, impliqué dans du trafic d’êtres humains, les démocrates soutiennent des émeutes violentes à travers tous les Etats-Unis, Joe Biden et Hillary Clinton mériteraient de subir une procédure d’impeachment, etc.
Des outils disponibles pour tout le monde
Une variété d’outils en ligne ont été utilisées pour cette étude. Les services de vérifications d’information Snopes.com ou Factcheck.org, la recherche d’images inversée de Google, « pour savoir si les images ont déjà été fact-checkées par des journalistes ou des experts en vérification ». L’ambition de ce travail étant aussi de montrer qu’il est possible de traquer la désinformation quelle qu’en soit l’ampleur, avec des outils en ligne disponible pour tout le monde.
C’est à partir de tous ces éléments que les chercheurs ont établis une part de 23% de désinformation visuelle sur le corpus de 14 millions de posts Facebook. Concernant particulièrement les images impliquant du personnel politique, le chiffre se monte à 20%. Quant aux deux autres sous corpus de 300 images les plus repostées, la désinformation visuelle représente 30% des contenus politiques pour les pages de groupes Facebook, et 26% pour les pages de membres de Facebook. Et dans tous les cas, la désinformation est nettement plus présente dans des posts penchant à droite de l’échiquier politique que dans des posts de gauche.
Par contre, l’étude révèle un phénomène allant à rebours de ce qui est généralement dit des mécanismes de Facebook. L’engagement des internautes (« likes », partages, commentaires) sur ce type de contenus ne garantit en rien que cette désinformation soit particulièrement visible et recommandée (la survisibilité de la désinformation due à l’engagement des internautes est plus nette sur Twitter, par exemple).
Moins d’engagement pour la désinformation visuelle
Les chercheurs émettent plusieurs hypothèses pour l’expliquer. D’abord, leur méthodologie identifie la désinformation au niveau d’un post Facebook quand la plupart des études sur le sujet partent de l’émetteur de désinformation. Autrement dit, elles labellisent comme « trompeur » tout contenu publié par un compte connu pour désinformer, quand bien même aucun compte de ce genre ne publie jamais uniquement des contenus trompeurs.
Ensuite, un changement opéré par Facebook dans sa mécanique de recommandation au printemps 2020, soit avant la période à laquelle ont été publiés les posts utilisés pour cette étude, a pu faire son effet. Une autre possibilité serait tout simplement que la désinformation visuelle suscite moins d’engagement que de la désinformation textuelle. Mais cette piste nécessiterait une étude à part entière pour être confirmée ou infirmée.
sciencesetavenir