RTBFPasser au contenu
Rechercher

Coronavirus

Les médias sociaux trop peu actifs face aux attaques contre les scientifiques

03 févr. 2022 à 06:00 - mise à jour 03 févr. 2022 à 12:49Temps de lecture4 min
Par Johanne Montay

Qu’ont en commun l’Américain Anthony Fauci, l’Allemand Christian Drosten, et le Belge Marc Van Ranst ? Outre leur domaine de compétence, l’immunologie ou la virologie, et leur expertise sur la pandémie de Covid-19, ils ont tous les trois une place sur le podium des cibles scientifiques les plus visées par la désinformation en ligne.

Le collectif citoyen international Avaaz, basé à Madrid, a réalisé récemment une étude sur les messages publiés sur les réseaux sociaux à propos de ces scientifiques. Leurs principales conclusions pointent l’inaction de Facebook sur la moitié du contenu de désinformation pourtant débunké par des fact-checkers du monde entier.

Non vérifié ? Plus commenté et plus partagé

Ces posts livrés à eux-mêmes reçoivent environ cinq fois plus de réactions (commentaires, likes et partages) que les posts auxquels Facebook a appliqué une mesure de vérification : en ce qui concerne Anthony Fauci aux Etats-Unis, Christian Drosten en Allemagne et Marc Van Ranst en Belgique, Avaaz a recensé 85 posts avec du contenu non vérifié, qui ont bénéficié de plus d’un million et demi d’interactions (1.868.296). Fin juillet 2021, au terme de l’étude, 49% des publications étaient toujours en ligne et n’avaient pas été supprimées ou étiquetées avec un label d’avertissement.

Quant aux vidéos, elles ont cumulé 14,7 millions de vues. Luca Incotra, directeur de campagne du collectif Avaaz, dénonce le fait que "deux ans après le début de la pandémie, les plateformes des médias sociaux sont toujours un terreau fertile pour la désinformation et les menaces à l’égard des scientifiques". "Nous avons vu, en particulier", poursuit-il, "que sur l’une de ces plateformes, la plus importante, Facebook, la moitié du contenu avec de la désinformation visant de tels scientifiques reste toujours non accompagnée d’un label, d’un avertissement. La plateforme n’est pas attentive à cette désinformation. Même si elles ont apporté d’importants changements de politique, elles n’informent pas les utilisateurs à ce sujet. La raison pour laquelle c’est si problématique, c’est que cette désinformation non détectée, est aussi plus virale. Notre étude montre que quand un contenu de désinformation n’est pas labellisé comme tel par l’entreprise, ce contenu est cinq fois plus viral que quand il y a un label qui alerte l’utilisateur que c’est en réalité faux ou incomplet."

Ces conclusions rejoignent celles d’une enquête lancée par Nature l’année passée : les menaces en ligne visant les scientifiques infectent les réseaux sociaux depuis le début de la pandémie de Covid-19. En octobre 2021, des dizaines de chercheurs racontaient à la revue scientifique qu’ils avaient reçu des menaces de mort, ou des menaces de violences physiques ou sexuelles.

Loading...

L’enquête, menée par Nature auprès de plus de 300 scientifiques qui ont accordé des interviews aux médias sur le Covid-19, révèle que 15% d’entre eux ont reçu des menaces de mort. C’est le cas en Belgique de Marc Van Ranst, placé avec sa famille dans une maison sécurisée, car menacé par l’ancien militaire Jürgen Conings, mais aussi du directeur de l’Institut américain des allergies et des maladies infectieuses, Anthony Fauci, placé sous protection suite à des menaces de mort envers lui et sa famille, ou du virologue allemand Christian Drosten qui a reçu un colis avec un flacon de liquide étiqueté "positif" et un petit mot lui enjoignant de boire le contenu.

De façon plus large, plus de deux tiers des chercheurs interrogés ont rapporté des expériences négatives suite à leurs apparitions dans les médias ou leurs commentaires sur les réseaux sociaux et 22% ont reçu des menaces de violence physique ou sexuelle. Six scientifiques ont déclaré avoir même été agressés physiquement.

Les algorithmes en question

Luca Incotra, directeur du collectif Avaaz, pointe la responsabilité de l’algorithme des plateformes qui pousse à favoriser la diffusion de contenus "à clics" pour maximiser l’audience publicitaire : "Evidemment", nous dit-il, "Facebook n’a pas intérêt à propager de la désinformation sur les scientifiques, ou des discours de haine. Mais ce qui est de plus en plus clair, c’est que leur algorithme est responsable de l’amplification de ces messages. Et il y a une raison : c’est parce que leur algorithme essaye seulement de maximiser le temps que l’utilisateur passe sur la plateforme. En essayant de maximiser ce temps, avec un but, bien sûr, qui est de diffuser plus de publicités, pour générer plus de bénéfices – c’est le mécanisme en amont – ils sont en effet responsables du fait de rendre ces contenus extrêmement viraux.

Facebook (dont la maison mère s’appelle maintenant Meta) s’est défendu en disant que la société avait des règles strictes sur la désinformation sur le Covid-19 et les vaccins, et n’autorisait pas les menaces de mort contre quiconque sur les plateformes. La plateforme affirme avoir "supprimé plus de 24 millions d’éléments de contenu pour violation de ces politiques depuis le début de la pandémie, y compris le contenu mentionné dans ce rapport", d’après son porte-parole, dont les propos sont rapportés par Nature. "Nous avons également ajouté des étiquettes d’avertissement à plus de 195 millions d’éléments de contenu Covid-19 supplémentaires qui ne violent pas nos politiques mais qui sont toujours problématiques. Nous continuerons à prendre des mesures contre tout contenu qui enfreint nos règles", rapporte le journal scientifique.

Sur son site, dans un article de 2017, consacré aux questions difficiles, la société Meta ajoute "il est clair que nous ne sommes pas parfaits lorsqu’il s’agit d’appliquer notre politique. Il y a souvent des appels rapprochés – et trop souvent, nous nous trompons". C’était bien avant la pandémie, qui ne fait que renforcer les besoins d’un meilleur suivi de la haine en ligne.

La plupart du temps, les chercheurs essaient d’ignorer les agressions, mais l’enquête montre tout de même qu’elles pourraient avoir un effet dissuasif sur la communication scientifique. Ceux, parmi les scientifiques, qui ont signalé avoir été le plus trollés ou attaqués, ont aussi dit que cela avait affecté grandement leur volonté de parler aux médias à l’avenir.

Loading...

Sur le même sujet

Des fact-checkers du monde entier exhortent YouTube à lutter contre la "désinformation"

Coronavirus : Facebook toujours en lutte contre la désinformation sur le Covid, outil de division

Articles recommandés pour vous