High tech

Facebook a banni (seulement) 3000 comptes ayant propagé de fausses informations sur la Covid-19

Facebook a dévoilé que plus de 18 millions d’utilisateurs avaient utilisé les filtres affichant leur soutien aux vaccins sur leur photo de profil.

© Alastair Pike / AFP

20 août 2021 à 11:00Temps de lecture2 min
Par RTBF Tendance avec AFP

En bannissant seulement 3000 comptes et autres pages, Facebook a tout de même observé une augmentation de la confiance envers les vaccins dans plusieurs pays. On fait le point.

La lutte contre la désinformation reste un enjeu pour les plateformes. Facebook n’a cessé d’annoncer des nouvelles fonctionnalités développées pour endiguer la propagation de fausses informations et d’informations trompeuses sur sa plateforme. Souvent critiqué pour leur manque d’efficacité, le géant américain a visiblement souhaité démontrer le contraire en publiant les résultats de son dixième "Community Standards Enforcement Report" ce 18 août.

20 millions de contenus supprimés sur Instagram et Facebook

Plus d’un an après le début de la pandémie, le réseau social de Mark Zuckerberg a dévoilé quelques résultats de sa politique de modération. Depuis le début de la crise sanitaire jusqu’à juin 2021, Facebook a indiqué avoir supprimé plus de 3000 comptes, pages et groupes ayant à plusieurs reprises violé leurs politiques contre la désinformation sur la Covid-19.

Un nombre qui peut paraître assez dérisoire face aux multitudes de fausses informations circulant en ligne. Et pourtant ! Facebook a tout de même précisé que plus de 20 millions de contenus ont été supprimés sur sa plateforme ainsi que sur Instagram pour violation de leurs politiques et protections relatives au Covid-19 depuis le début de la crise mondiale.

En décembre 2020, Facebook avait déjà lancé un outil permettant d’envoyer une notification aux utilisateurs ayant eu accès à des fausses informations sur sa plateforme. Des avertissements avaient également été apposés sur les publications pouvant contenir des informations trompeuses ou fausses.

Après étude, plus de 190 millions de contenus relatifs au Covid-19 ont reçu ce genre d’avertissement sur Facebook dans plus de 60 langues, a révélé le réseau social : "Nous avons affiché des avertissements sur plus de 190 millions de contenus liés à COVID sur Facebook que nos partenaires tiers de vérification des faits ont classés comme faux, partiellement faux, contexte altéré ou manquant, collaborant avec 80 organisations de vérification des faits dans plus de 60 langues à travers le monde."

Plus de confiance envers les vaccins

Dans sa lutte contre la désinformation liée à la pandémie de Covid-19, Facebook a souligné son efficacité concernant le changement d’attitude de ses utilisateurs face aux vaccins.

D’après une étude réalisée en collaboration entre Facebook et les universités Carnegie-Mellon ainsi que du Maryland, l’acceptation du vaccin a connu une augmentation de 35% en France, 25% en Indonésie et 20% au Nigeria, depuis le début de l’année. Aux États-Unis, la méfiance envers les vaccins a même drastiquement baissé de 50%.


Lire aussi : Coronavirus : les récompenses insolites que les USA promettent aux gens qui se font vacciner


En avril 2021, Facebook avait mis en place un système de notification pour alerter les utilisateurs des campagnes de vaccination selon leur localisation. Un outil efficace d’après Facebook qui s’est félicité d’avoir permis à 4 millions d’utilisateurs d’avoir eu accès aux vaccins aux États-Unis grâce à cet outil. Ils sont d’ailleurs plus de 7,6 millions d’utilisateurs à avoir utilisé les stickers pro vaccin dans le monde sur Instagram.

Sur le même sujet

Pourquoi sommes-nous si fatigués ?

Psychologie

Décès et réseaux sociaux : que faire du compte Facebook d'un proche après sa mort ?

High tech

Articles recommandés pour vous