La Russie mène une guerre bien visible, sur le terrain, en Ukraine, mais elle mène aussi une autre guerre, une guerre informationnelle, une guerre de l’invisible. La cible de cette bataille-là est bien plus vaste, elle vise à déstabiliser nos systèmes démocratiques occidentaux, vus comme une menace aux portes du pays de Poutine.
Comment cette guerre se matérialise-t-elle dans le cadre du conflit armé en Ukraine, mais aussi dans le cadre de l'élection présidentielle française ? Quels en sont les ressorts ? Asma Mhalla, spécialiste en politique du numérique, et enseignante à Sciences Po Paris, nous donne les clés pour comprendre.
Il faut d’abord rappeler que les Russes n’en sont pas à leur coup d’essai, ils ont été précurseurs dans ce domaine de la guerre informationnelle ?
Oui, les Russes ont formalisé le recours à la désinformation comme outil de déstabilisation de leurs adversaires et ce, depuis la guerre froide. Si la doctrine autour de la propagande est née dans les années trente aux Etat-Unis, avec Edward Bernays, c’est bien le KGB, qui a développé et mis en application, dès les années 70, une doctrine de l'information comme outil de guerre, plus précisément du contrôle de l'information comme ressource militaire stratégique.
En Russie, le contrôle de la sphère informationnelle est toujours à double détente : d’abord le contrôle de l’information chez soi, c’est ce qu’on voit bien avec la guerre en Ukraine (suppression des sources d’information étrangères, mise sous cloche des médias russes).
Ensuite, le contrôle de l’information à l’étranger, et là ce sont des stratégies de désinformation dont le but est la déstabilisation, notamment psychologique, de l’adversaire et des systèmes démocratiques perçus comme une menace.
Là, il s’agit donc de déstabiliser, via la désinformation. Ça ne s’improvise pas, c’est une véritable stratégie, construite sur le long terme ?
Oui, l’idée c’est de créer la confusion, l’instabilité, la polarisation de leur cible. Les Russes n’essaient pas d’imposer leur modèle politique, à l’image des Américains qui ont fait du prosélytisme du modèle démocratique occidental. Leur but est simplement de montrer aux autres que leur modèle ne fonctionne pas, d’instiller le doute sur leur propre système.
Et pour ça, effectivement, il ne suffit pas de balancer une vidéo décontextualisée. Ce sont des stratégies à long terme, qui agissent à bas bruit, parce que ça travaille une opinion publique, un imaginaire, des représentations collectives et individuelles.
Il s’agit de déstabiliser en appuyant sur les failles nos sociétés occidentales. Il faut donc commencer par comprendre parfaitement le contexte socio-économique, historique, géopolitique de la population ou de l’État ciblé, pour identifier les failles du système.
En France, en ce moment, c’est facile pour les Russes d’identifier les failles du système : la défiance envers les élites et la parole publique, les inégalités, deux ans de fragilisation psychologique collective avec le Covid, etc. Il suffit de bien appréhender ces failles-là et de bien appuyer dessus.
Comment, ensuite, “appuyer” sur ces failles justement ? Pouvez-vous nous décrire la méthode ou les méthodes de désinformation ?
On décide d’abord du narratif qu’on va injecter. Par exemple, en France, ça peut être le “tous pourris”
Ensuite, on va créer des contenus qui vont venir appuyer ce narratif. Cela peut être des fake news (fausses informations) ou des deepfakes (techniques de modification d’une vidéo pour faire dire ou faire ce qu’on veut à un intervenant), mais pas seulement, ça peut aussi être des informations réelles mais décontextualisées, recontextualisées, “surémotionnalisées”.
A partir de là, vont intervenir les outils qui vont venir injecter ça sur les réseaux sociaux :
- Les bots : des robots automatisés qui relaient, aiment, suivent, partagent en masse un certain type de contenus qui ont été injectés.
- Les fermes à trolls : des espaces réels (comme l’Internet Research Agency, à Saint-Petersbourg, ndlr) où des gens vont injecter des contenus et créer de la viralité autour, via toutes les actions possibles sur les réseaux sociaux (commentaires, posts, “like”, “share” etc.).
- L’astroturfing : une technique destinée à donner l’impression d’une extrême popularité d’un mouvement ou d’une personnalité. Il y a par exemple des formules où l’on achète des abonnés, avec des comptes qui passent d’un coup de 1000 à 15.000 followers. Trump l’a beaucoup fait notamment, il peut y en avoir aussi autour de grands mouvements comme Black Lives Matter, ou les gilets jaunes.
Pour optimiser la viralité de ces contenus, et à peu de frais, on peut s’appuyer sur des “relais d’influence locaux”, des influenceurs politiques, des leaders d’opinion qui alimentent tous les discours antisystèmes, complotistes, antivax etc. Ils ne se trouvent pas que sur Twitter ou sur Facebook mais aussi sur ce qu’on appelle l’alt-tech, des plateformes qui prônent le " zéro modération”. En France, c’était essentiellement les pro Zemmour, ou les pro Le Pen.
Vous pouvez éventuellement agrémenter ça de leaks, de fuites, comme en France en 2017 ou celles concernant Hillary Clinton en 2016.
Et, enfin, une opération de désinformation est réussie quand l’information finit par être relayée par les médias mainstream, même si c’est pour la dénoncer. On parle alors de blanchiment de l’information, elle acquiert à la fois une plus forte visibilité et une certaine légitimité.
Finalement, on supprime les traces, les faux comptes, on nettoie.
Ce sont des opérations clandestines, difficiles à rattacher directement à un Etat ?
Oui, les Etats ne vont pas le faire nominativement. Si on pouvait attribuer officiellement des campagnes de cyber-déstabilisation, ça pourrait vite être considéré comme des actes de guerre ou des actes hostiles.
Donc ce sont toujours des nébuleuses autour des Etats qui agissent. Et là, les Russes sont très bons. Il y a tout un magma d'organisations qui gravitent autour du Kremlin mais qui ne sont pas directement affiliées au gouvernement russe ou au renseignement russe. C’est un peu comme les milices Wagner, ce sont des cyber-milices.
Comment tout cela se matérialise-t-il dans le contexte de la guerre en Ukraine ? On parle beaucoup de guerre d’informations, mais on parle plutôt de la guerre officielle : les Ukrainiens dénoncent un massacre, les Russes nient. Or, il y a aussi cette guerre plus officieuse ?
Oui, et ce qui est intéressant c’est qu’elles se sont hybridées. On distingue généralement, d’un côté la communication officielle, celle de la diplomatie, des gouvernements, et, d’un autre côté, la communication officieuse, les opérations de cyber-déstabilisation non attribuables.
Or, dans le cas de la guerre en Ukraine, les diplomates russes ET les diplomates ukrainiens se sont mis, au sein de leur discours officiel, à relayer de la désinformation. Cette porosité n’était pas d’usage jusque-là.
La parole officielle devient un relais de la désinformation de façon assumée. A long terme, cela risque de faire beaucoup de mal à la crédibilité de la parole d’un Etat, au rôle de la diplomatie etc.
Un des grands exemples, c’est le bombardement de la maternité à Marioupol. Les Ukrainiens ont accusé les Russes. Les Russes ont fait un faux fact-checking de fact-checking (ils ont réussi à inventer la mise en abyme du fact checking) pour démentir.
Cette fausse information-là a été relayée par le porte-parole du Kremlin et les différentes ambassades.
Pourquoi ? Parce que les médias russes comme RT ou Sputnik étant interdits dans l’Union européenne, les diplomates russes ont pris eux-mêmes le relais. Ils sont devenus un relais de la désinformation.