Le Parlement européen stoppe cinq ans de surveillance de masse de vos messages privés, mais le round 2 commence déjà.
Le Parlement européen a enterré Chat Control 1.0 le 26 mars 2026 à une seule voix près. Depuis 2021, Meta, Google et Microsoft scannaient légalement les messages privés de 450 millions d’Européens sans mandat judiciaire, au nom de la protection de l’enfance. Un régime d’exception qui expire désormais le 4 avril, faute de prolongation. Victoire fragile, scrutin haletant, et batailles à venir : décryptage d’un vote qui a failli ne jamais avoir lieu.
Le 26 mars 2026, le Parlement européen a vécu l’une de ses séances plénières les plus tendues de la législature. Après des semaines de feuilleton législatif inédit, le vote sur la prolongation de la dérogation temporaire à la directive ePrivacy, surnommée « Chat Control 1.0 » par ses opposants, s’est finalement joué à 307 voix contre 306. Un seul bulletin a suffi à rejeter l’amendement autorisant l’analyse automatisée de contenus inconnus dans les messages privés. Sans cet amendement, le texte restant n’a ensuite pu réunir de majorité : 228 eurodéputés ont voté pour la prolongation de la dérogation, 311 contre. La dérogation expire donc le 4 avril sans successeur.
Ce résultat clôt plusieurs semaines de bras de fer d’une intensité rare. Tout commence début mars quand la commission LIBE du Parlement rejette, à la surprise générale, le projet de prolongation par 38 voix contre 28. La plénière vote malgré tout une extension jusqu’en août 2027, mais en y greffant un amendement majeur : désormais, tout scan devrait être ciblé, limité aux suspects identifiés par un juge, et les communications chiffrées de bout en bout explicitement exclues. Un compromis qui a vidé le texte de sa substance pour ses partisans.
La suite tient du coup de théâtre parlementaire. Le PPE (Parti Populaire Européen) force un nouveau vote en plénière, 15 jours seulement après le premier, en brandissant le risque d’un « vide juridique » si Chat Control expire sans remplacement, un argument contesté par de nombreux experts. Plusieurs eurodéputés dénoncent une manœuvre qui revient à faire revoter le Parlement jusqu’à obtenir le résultat souhaité. La tentative échoue. Le vote du 26 mars l’a confirmé définitivement.
Cinq ans de scan de masse : un bilan accablant
Pour comprendre ce qui s’arrête le 4 avril, il faut remonter à 2021. Chat Control 1.0, c’est un régime temporaire mis en place en 2021 qui permettait aux plateformes (Gmail, Facebook Messenger, LinkedIn, Instagram et autres) de scanner automatiquement et sans mandat judiciaire l’ensemble des messages privés, photos et vidéos, dans l’espoir d’y détecter du matériel pédocriminel (CSAM, Child Sexual Abuse Material). Trois types de scan étaient en jeu : la comparaison d’images connues via une empreinte numérique (hash scanning), l’analyse d’images et vidéos inconnues, et l’analyse automatisée de textes.
Cinq ans plus tard, le rapport d’évaluation 2025 de la Commission européenne elle-même dresse un constat sévère. Environ 99 % de tous les signalements transmis aux polices européennes proviennent d’un seul acteur : Meta. Les géants américains ont ainsi joué le rôle d’une police privée auxiliaire, sans contrôle européen effectif. Le BKA (Office fédéral de police criminelle allemand) rapporte que 48 % des contenus signalés sont sans intérêt pénal. Cette avalanche de faux positifs mobilise des ressources qui font défaut aux enquêtes ciblées. Environ 40 % des procédures engagées en Allemagne visent des adolescents qui ont partagé des images de manière irréfléchie, du sexting consenti entre mineurs. Enfin, depuis 2022, le nombre de signalements a chuté de 50 % à mesure que les plateformes basculent vers le chiffrement de bout en bout, rendant le modèle techniquement obsolète.
Le clou du cercueil est scientifique. Une étude publiée le jour même du vote par des chercheurs en sécurité informatique analyse l’algorithme standard PhotoDNA, utilisé par les géants technologiques pour détecter les contenus illicites. Leur verdict : le logiciel est « peu fiable ». Les chercheurs démontrent que des criminels peuvent rendre des images illégales invisibles au scanner par de simples modifications (ajouter un simple cadre), tandis que des images anodines peuvent être manipulées pour déclencher de fausses alertes contre des citoyens…
…
Suite de l’article réservée aux abonnés : developpez.com