Pendant la campagne électorale 2022, l’équipe d’Éric Zemmour s’est démarquée par son industrialisation des techniques de manipulation de l’information sur les réseaux sociaux. Mais un regard sur les quelques années écoulées montre qu’à peu près toutes les forces politiques françaises utilisent ou ont utilisé des tactiques de distorsion des discours en ligne.
Le 10 avril 2022, à 20 heures, Emmanuel Macron et Marine Le Pen sortent vainqueurs du premier tour des élections présidentielles françaises, avec 27,85 et 23,15 % des voix respectivement. Derrière eux, Jean-Luc Mélenchon, 21,95 %, et Éric Zemmour, 7,07 % des voix. Ce dernier score tranche avec la surreprésentation du candidat d’extrême droite sur les réseaux sociaux pendant la campagne.
Une des explications possibles à l’échec du polémiste le jour du vote a commencé à être documentée dès février 2022, alors que Le Monde révélait l’usage que faisait l’équipe de Reconquête de techniques de distorsion des discours sur les réseaux sociaux : en ligne, une bonne partie de l’engouement pour l’ex-chroniqueur du Figaro était faussée.
Un rapport de l’Institute for Strategic Dialogue (ISD) vient détailler les ressorts du phénomène : dès janvier 2021, soit 18 mois avant le scrutin, le groupe Les Amis d’Éric Zemmour a publié des pétitions utilisées ensuite sur Twitter et Facebook pour tenter d’influencer le discours médiatique en faveur du candidat. Appelée astroturfing, la pratique va à l’encontre des conditions d’utilisation des grands réseaux sociaux, puisqu’elle constitue une activité dite « inauthentique ».
Si Reconquête s’est distingué par l’industrialisation de son usage, c’est loin d’être le seul mouvement à recourir à ces tactiques de manipulation difficiles à repérer pour l’internaute.
L’astroturfing, une technique ancienne
De même que la présence en ligne des politiques ne date pas d’hier – le site web du Front National, premier parti français à se lancer sur Internet, en 1996 – l’astroturfing date de bien avant l’avènement des réseaux sociaux. Issue d’un jeu de mots en anglais, l’expression oppose la marque de gazon artificiel AstroTurf au terme grassroot, « populaire », qui désigne aussi, littéralement, les racines d’un gazon.
En communication, cela consiste à monter de toutes pièces un mouvement pour faire croire à l’observateur extérieur à un engouement civique légitime. « Ça existait avec le collage, l_’envoi en masse de courrier aux électeurs,_ souligne le chercheur Nicolas Vanderbiest, spécialiste des phénomènes d’influence en ligne. Simplement, le numérique et les réseaux sociaux ont rendu ces opérations beaucoup plus simples à réaliser. »
De fait, le chercheur décortique depuis une dizaine d’années le bruit en ligne pour en évaluer la pertinence. « Vers 2016-2017, j’ai vu mon environnement d’étude, Twitter, muter vers une tendance extrêmement polémique et militante ».
En France, les premiers signes en sont l’explosion du hashtag #TelAvivSurSeine, qui provoque rapidement des articles dans Le Monde, 20 Minutes ou l’Express quand bien même le sujet n’est poussé que par un très faible nombre de militants pro-palestiniens.
Un an plus tard, c’est le sujet du burkini qui est poussé par l’extrême droite jusqu’à être commenté sur les plateaux télé. Chaque fois, la logique est la même : quelques comptes tweetent abondamment sur un sujet précis, ils sont repris par un ou des journaux qui leur donnent une forme de crédibilité, puis la polémique enfle jusqu’à occuper tout l’espace.
Une tactique de désinformation en ligne courante…
Depuis, la pratique s’est répandue. Au tournant de l’élection de Donald Trump et du scandale Cambridge Analytica, des cas d’ingérence étrangère inquiètent. À deux jours du premier tour de la présidentielle 2017, la publication sur Wikileaks de 9 Go de données provenant du piratage d’En Marche! soulève les craintes d’une manipulation russe – lors de cette campagne, l’alt-right américaine a aussi tenté d’influencer les débats pour promouvoir Marine Le Pen.
Mais se tourner automatiquement vers des groupes étrangers pour analyser ces déformations serait se bercer d’illusion. Auteur de Toxic Data et créateur du Politoscope, qui analyse l’activité politique française sur Twitter, le mathématicien David Chavalarias a noté dès les débuts de la campagne de 2017 un mouvement d’amplification des discours anti-Macron et anti-Mélenchon orchestré par des comptes français pour privilégier les thématiques d’extrême droite. Le phénomène a touché jusqu’à l’UMP, puisque la brusque apparition du hashtag #AliJuppé, très principalement tweeté par la droite et l’extrême droite, a servi à déstabiliser les primaires de l’UMP et à pousser la candidature de François Fillon.
Déformer la discussion, que ce soit dans ou hors des périodes électorales, « tout le monde le fait, souffle Nicolas Vanderbiest. Et c’est parce que tout le monde le fait que chacun peut se défendre en disant “si je ne le fais pas, je ne survivrai pas”. »
Effectivement, en 2018, le hashtag #BenallaGate suscite en quelques jours plus de tweets que le seul #BalanceTonPorc, une manipulation que Nicolas Vanderbiest détecte comme faussée – certains comptes proches du Front National tweetent jusqu’à 1 000 messages par heure, ce qui laisse supposer des pratiques automatisées.
En 2019, Le Monde et Mediapart montrent comment des militants marcheurs multiplient les faux comptes pour augmenter la visibilité des informations qui les intéressent ou harceler des « cibles ». En 2021, c’est sur les pratiques virulentes du Printemps Républicain que revient Slate. En 2022, les militants Insoumis organisent des raids pour faire grimper leur candidat dans les tendances…
… aux contours débattus
Si bien que, pour le spécialiste des médias sociaux Fabrice Epelboin, lorsqu’on parle d’un nombre réduit de militants qui s’organisent pour rendre visible un sujet qui les arrange, ce n’est même plus de l’astroturfing, « c’est devenu une tactique classique de militantisme. »
Pour lui, les pratiques consistant à reprendre et amplifier un message, tant qu’elles ne sont pas assistées de bots, de faux comptes et/ou de personnes payées pour amplifier le bruit comme dans l’affaire Avisa Partners, sont un nouveau mode d’action politique et non une déformation de l’usage des réseaux. Et les deux experts en la matière, parce qu’ils savent si bien « utiliser des discours clivants pour se propulser dans les discussions médiatiques, sont Éric Zemmour et Sandrine Rousseau » estime l’entrepreneur.
Sauf que la propension à cliver ne vient pas des seules forces politiques, elle est ancrée dans l’architecture des plateformes sociales. « Celles-ci sont construites pour favoriser les contenus sensationnels, promotionnels, qui divisent » rappelle David Chavalarias. En cinq ans, cela s’est traduit par une « polarisation nette des échanges pour observer, en 2022, un pôle d’extrême-droite et un autre autour de la gauche radicale » alors que toutes les couleurs politiques étaient représentées de manière relativement équilibrée en 2017.
Par ailleurs, les conditions d’utilisation des plateformes sont claires : chez Twitter, il est interdit d’utiliser le réseau « d’une manière qui vise à (…) amplifier artificiellement des informations, et d’adopter un comportement qui manipule ou perturbe l’expérience des utilisateurs ». Côté Meta, l’authenticité est déclarée « pierre angulaire de notre audience » et les usagers ont interdiction de « mentir sur leur identité sur Facebook, utiliser de faux comptes, augmenter de manière artificielle la popularité de leur contenu ».
L’architecture numérique source d’oppositions
Co-autrice du rapport de l’ISD, la coordinatrice de recherche Zoé Fourel note pourtant que lesdites plateformes n’ont absolument pas réagi aux violations de leurs règles par les militants proches d’Éric Zemmour. L’immense majorité des tweets et publications qui ont permis de propulser en trending topic (sujet tendance sur Twitter) étaient non pas le fait d’une foule de citoyens engagés, mais d’un minuscule nombre de profils sur le réseau social – dans un cas sur dix, c’était le responsable de la stratégie numérique Samuel Lafont qui twittait lui-même les contenus destinés à attirer l’attention du public et des médias.
Et cela a fonctionné un temps : en septembre 2021, comptait Acrimed, l’éditorialiste multi-condamné pour provocation à la haine raciale était cité 4 167 fois dans la presse française, soit 139 fois par jour. En janvier 2022, les sondages lui annonçaient 14 % des voix d’électeurs.
Ce que les médias et les internautes doivent comprendre, estime David Chavalarias, c’est à quel point « les plateformes sociales ont un effet structurel sur les interactions sociales elles-mêmes : non seulement elles prennent vos données, mais elles façonnent aussi la discussion et les interactions. »
Cela finit par créer des stratégies d’influence à part entière, indique le chercheur : « promouvoir des idées aussi clivantes que la théorie du grand remplacement ou l’existence d’un islamo-gauchisme, c’est forcer le positionnement de l’internaute dans un camp : celui du pour ou celui du contre ». Par ailleurs, des chercheuses comme Jen Schradie ont montré la tendance des plateformes à favoriser les idées conservatrices, ce qu’un rapport interne à Twitter est venu confirmer fin 2021. L’architecture de nos arènes numériques, conclut David Chavalarias, « a pour effet de simplifier le business politique pour le rendre bipolaire. »
Que faire, face à ces phénomènes dont on commence tout juste à prendre la mesure ? Dans le discours politique, une réaction pourrait venir des partis et des militants eux-mêmes. L’équipe de Joe Biden, aux États-Unis, puis celle d’Emmanuel Macron, en France, ont adopté de nouvelles stratégies dans les campagnes présidentielles récentes : celle de ne plus communiquer, sur Twitter, que sur des éléments positifs (c’est-à-dire peu ou non clivants) et actions de leurs candidats. Ce faisant, ils s’éloignent de la machine à clash instituée par le réseau social.
« Il faudrait que les plateformes commencent par implémenter leurs propres règles », pointe par ailleurs Zoé Fourel, qui plaide pour une ouverture de leurs données pour faciliter le travail des chercheurs et les audits extérieurs.
« Ajouter des étiquettes sur l’activité suspectée d’illégitimité pourrait aussi aider les utilisateurs à s’y retrouver. Sans parler du besoin de coopération entre plateformes : quand une campagne est menée sur Twitter, elle a aussi des échos sur Facebook et ailleurs en ligne ». La chercheuse suggère de reproduire les partenariats existant pour lutter contre certains contenus extrêmes.
Source : nextinpact.com