RTBFPasser au contenu

Monde

Guerre de l’information : “Les Russes ont mis la parole de la diplomatie au service de la désinformation, ça risque de faire beaucoup de mal”

Guerre de l’information : “Les Russes ont mis la parole de la diplomatie au service de la désinformation, ça risque de faire beaucoup de mal”
13 avr. 2022 à 04:00 - mise à jour 13 avr. 2022 à 12:118 min
Par Daphné Van Ossel

La Russie mène une guerre bien visible, sur le terrain, en Ukraine, mais elle mène aussi une autre guerre, une guerre informationnelle, une guerre de l’invisible. La cible de cette bataille-là est bien plus vaste, elle vise à déstabiliser nos systèmes démocratiques occidentaux, vus comme une menace aux portes du pays de Poutine.

Comment cette guerre se matérialise-t-elle dans le cadre du conflit armé en Ukraine, mais aussi dans le cadre de l'élection présidentielle française ? Quels en sont les ressorts ? Asma Mhalla, spécialiste en politique du numérique, et enseignante à Sciences Po Paris, nous donne les clés pour comprendre.

Il faut d’abord rappeler que les Russes n’en sont pas à leur coup d’essai, ils ont été précurseurs dans ce domaine de la guerre informationnelle ?

Oui, les Russes ont formalisé le recours à la désinformation comme outil de déstabilisation de leurs adversaires et ce, depuis la guerre froide. Si la doctrine autour de la propagande est née dans les années trente aux Etat-Unis, avec Edward Bernays, c’est bien le KGB, qui a développé et mis en application, dès les années 70, une doctrine de l'information comme outil de guerre, plus précisément du contrôle de l'information comme ressource militaire stratégique.

En Russie, le contrôle de la sphère informationnelle est toujours à double détente : d’abord le contrôle de l’information chez soi, c’est ce qu’on voit bien avec la guerre en Ukraine (suppression des sources d’information étrangères, mise sous cloche des médias russes).

Ensuite, le contrôle de l’information à l’étranger, et là ce sont des stratégies de désinformation dont le but est la déstabilisation, notamment psychologique, de l’adversaire et des systèmes démocratiques perçus comme une menace.

Là, il s’agit donc de déstabiliser, via la désinformation. Ça ne s’improvise pas, c’est une véritable stratégie, construite sur le long terme ?

Oui, l’idée c’est de créer la confusion, l’instabilité, la polarisation de leur cible. Les Russes n’essaient pas d’imposer leur modèle politique, à l’image des Américains qui ont fait du prosélytisme du modèle démocratique occidental. Leur but est simplement de montrer aux autres que leur modèle ne fonctionne pas, d’instiller le doute sur leur propre système.

Et pour ça, effectivement, il ne suffit pas de balancer une vidéo décontextualisée. Ce sont des stratégies à long terme, qui agissent à bas bruit, parce que ça travaille une opinion publique, un imaginaire, des représentations collectives et individuelles.

Il s’agit de déstabiliser en appuyant sur les failles nos sociétés occidentales. Il faut donc commencer par comprendre parfaitement le contexte socio-économique, historique, géopolitique de la population ou de l’État ciblé, pour identifier les failles du système.

En France, en ce moment, c’est facile pour les Russes d’identifier les failles du système : la défiance envers les élites et la parole publique, les inégalités, deux ans de fragilisation psychologique collective avec le Covid, etc. Il suffit de bien appréhender ces failles-là et de bien appuyer dessus.

Comment, ensuite, “appuyer” sur ces failles justement ? Pouvez-vous nous décrire la méthode ou les méthodes de désinformation ?

On décide d’abord du narratif qu’on va injecter. Par exemple, en France, ça peut être le “tous pourris”

Ensuite, on va créer des contenus qui vont venir appuyer ce narratif. Cela peut être des fake news (fausses informations) ou des deepfakes (techniques de modification d’une vidéo pour faire dire ou faire ce qu’on veut à un intervenant), mais pas seulement, ça peut aussi être des informations réelles mais décontextualisées, recontextualisées, “surémotionnalisées”.

A partir de là, vont intervenir les outils qui vont venir injecter ça sur les réseaux sociaux :

  • Les bots : des robots automatisés qui relaient, aiment, suivent, partagent en masse un certain type de contenus qui ont été injectés.
  • Les fermes à trolls : des espaces réels (comme l’Internet Research Agency, à Saint-Petersbourg, ndlr) où des gens vont injecter des contenus et créer de la viralité autour, via toutes les actions possibles sur les réseaux sociaux (commentaires, posts, “like”, “share” etc.).
  • L’astroturfing : une technique destinée à donner l’impression d’une extrême popularité d’un mouvement ou d’une personnalité. Il y a par exemple des formules où l’on achète des abonnés, avec des comptes qui passent d’un coup de 1000 à 15.000 followers. Trump l’a beaucoup fait notamment, il peut y en avoir aussi autour de grands mouvements comme Black Lives Matter, ou les gilets jaunes.​​​​​​

Pour optimiser la viralité de ces contenus, et à peu de frais, on peut s’appuyer sur des “relais d’influence locaux”, des influenceurs politiques, des leaders d’opinion qui alimentent tous les discours antisystèmes, complotistes, antivax etc. Ils ne se trouvent pas que sur Twitter ou sur Facebook mais aussi sur ce qu’on appelle l’alt-tech, des plateformes qui prônent le " zéro modération”. En France, c’était essentiellement les pro Zemmour, ou les pro Le Pen.

Vous pouvez éventuellement agrémenter ça de leaks, de fuites, comme en France en 2017 ou celles concernant Hillary Clinton en 2016.

Et, enfin, une opération de désinformation est réussie quand l’information finit par être relayée par les médias mainstream, même si c’est pour la dénoncer. On parle alors de blanchiment de l’information, elle acquiert à la fois une plus forte visibilité et une certaine légitimité.

Finalement, on supprime les traces, les faux comptes, on nettoie.

Ce sont des opérations clandestines, difficiles à rattacher directement à un Etat ?

Oui, les Etats ne vont pas le faire nominativement. Si on pouvait attribuer officiellement des campagnes de cyber-déstabilisation, ça pourrait vite être considéré comme des actes de guerre ou des actes hostiles.

Donc ce sont toujours des nébuleuses autour des Etats qui agissent. Et là, les Russes sont très bons. Il y a tout un magma d'organisations qui gravitent autour du Kremlin mais qui ne sont pas directement affiliées au gouvernement russe ou au renseignement russe. C’est un peu comme les milices Wagner, ce sont des cyber-milices.

Comment tout cela se matérialise-t-il dans le contexte de la guerre en Ukraine ? On parle beaucoup de guerre d’informations, mais on parle plutôt de la guerre officielle : les Ukrainiens dénoncent un massacre, les Russes nient. Or, il y a aussi cette guerre plus officieuse ?

Oui, et ce qui est intéressant c’est qu’elles se sont hybridées. On distingue généralement, d’un côté la communication officielle, celle de la diplomatie, des gouvernements, et, d’un autre côté, la communication officieuse, les opérations de cyber-déstabilisation non attribuables.

Or, dans le cas de la guerre en Ukraine, les diplomates russes ET les diplomates ukrainiens se sont mis, au sein de leur discours officiel, à relayer de la désinformation. Cette porosité n’était pas d’usage jusque-là.

La parole officielle devient un relais de la désinformation de façon assumée. A long terme, cela risque de faire beaucoup de mal à la crédibilité de la parole d’un Etat, au rôle de la diplomatie etc.

Un des grands exemples, c’est le bombardement de la maternité à Marioupol. Les Ukrainiens ont accusé les Russes. Les Russes ont fait un faux fact-checking de fact-checking (ils ont réussi à inventer la mise en abyme du fact checking) pour démentir.

Cette fausse information-là a été relayée par le porte-parole du Kremlin et les différentes ambassades.

Pourquoi ? Parce que les médias russes comme RT ou Sputnik étant interdits dans l’Union européenne, les diplomates russes ont pris eux-mêmes le relais. Ils sont devenus un relais de la désinformation.

Ce n’est pourtant pas la première fois que des officiels donnent de fausses informations, loin de là. On peut penser à Donald Trump, notamment. Quelle est la différence ?

Ici, on parle de relais de contenu de désinformation en tant que tel. Les ambassades ont relayé de façon concertée le faux fact-checking. Le fait d’avoir une synchronisation de l’ensemble des ambassades d’un pays qui relaient des contenus identiques, c’est une première.

Les Russes ont mis la parole de la diplomatie au service de la désinformation, ce n’est pas rien. C’est à surveiller.

On en vient à l’autre actualité du moment : la présidentielle française. Est-ce qu’on a constaté des opérations de désinformation la concernant ?

On n’a pas l’équivalent d’un Cambridge Analytica, d’un Macron leaks de 2017, ou des leaks d’Hillary Clinton.

Mais, par définition, une opération de désinformation qui fonctionne, c’est une opération dont on n'entend jamais parler. Parce que c’est de l’infiltration, de l’intoxication, ça se fait sur le long terme, à bas bruit, comme je l’ai dit. Sur le nombre d’opérations de désinformation qu’il y a, celles qui sortent dans la presse ne sont qu’une partie infime.

Donc, selon moi, pour le moment, c’est plutôt "business as usual". Mais c’est vrai qu’on est dans un contexte compliqué où deux agendas se superposent, un contexte international de guerre très phagocyté par de la désinformation, et un contexte d’élection présidentielle nationale et les deux s’imbriquent.

Cette porosité des RS fait qu’il est difficile de dire il y a eu telle opération sur tel compte.

La guerre en Ukraine a été instrumentalisée par certaines communautés virulentes, notamment d’extrême droite, pour servir un agenda politique national, tel ou tel programme, tel ou tel candidat.

Il n’y a évidemment pas que la Russie qui mène cette guerre de l’information, où en sont les pays européens dans ce domaine ?

Non, il y a évidemment des task forces qui se sont mises en place au sein de l’OTAN, ou entre pays baltes et scandinaves (East StratCom Task Force), en France, depuis octobre 2021, on a le Viginum (service de vigilance et de protection contre les ingérences numériques étrangères. 

Mais la difficulté, pour les démocraties européennes, c’est de trouver la ligne de crête entre des opérations d’influence, les droits internationaux et l’éthique. A partir de là, il vous reste une fenêtre de tir qui est extrêmement faible, d’autant plus que ce qui fonctionne sur les réseaux sociaux, c’est la colère, la haine, le doute, etc. Les États non démocratiques ne s’embarrassent pas, eux, de ces questions-là. 

Quelles sont les solutions pour faire face à cette guerre informationnelle ?

La mise en place des task forces, et leur collaboration, est importante. 

Ensuite, les journalistes et les médias traditionnels ont évidemment leur rôle à jouer dans le lien de confiance éditorial et dans ce qu’ils doivent continuer à représenter des sources d’information fiables.

Enfin, évidemment le rôle de l’école est premier. Il faut enseigner à l’école l’économie des réseaux sociaux, l’économie de l’attention, la fabrication d’une information, les enjeux géopolitiques actuels, etc. pour créer des citoyens en conscience de tout ça. Journalisme et éducation, sont deux piliers majeurs pour la construction d’une résilience collective.

Sur le plan réglementaire, au niveau européen, le DSA ("Digital Services Act") est aussi un pas important, mais il y a une surinformation qu’on ne sait pas réguler. Ni la justice, ni même les plateformes elles-mêmes n’ont été configurées pour absorber une telle abondance d’informations. On ne sait pas encore industrialiser la modération des contenus !

Par ailleurs, comme l’a souligné la chercheuse belge Marie Peltier, l’ampleur que prend une fausse information dans les communautés qui font sécession (antivax, complosphère, extrême droite, extrême gauche, etc.) vient d’un réel malaise démocratique.

Autrement dit, les campagnes de cyber-déstabilisation russes fonctionnent parce qu’elles tapent sur des vraies failles (explosion des inégalités, insécurité économique, identitaire etc.) A nous de les identifier et d’y répondre.

La réponse est donc multifactorielle. Les solutions juridiques ou technologiques ne suffisent pas. 

En réalité, la question n’est pas de courir toujours derrière la fausse information mais d’essayer de voir comment la société peut créer sa propre résilience, ses propres anticorps, apprendre à vivre avec ça en mettant les technologies numériques à son service et non l’inverse.

Articles recommandés pour vous