• 2 Votes
    1 Messages
    31 Vues

    Pravda da

    Le service de vigilance et protection contre les ingérences numériques étrangères Viginum a découvert un nouveau « réseau structuré et coordonné de propagande prorusse » relayant la désinformation complotiste.

    Surnommé « Portal Kombat » dans le rapport de Viginum, en référence au jeu vidéo Mortal Kombat, ce réseau, détecté en septembre 2023, est constitué « d’au moins 193 sites » web utilisés depuis 2022 pour désinformer au sujet de la guerre en Ukraine.

    Des sites « soudainement réactivés et musclés »

    Créé par un acteur privé russe dès 2013, afin de « couvrir l’actualité russe et ukrainienne de façon badine », ces sites « dormants » auraient été « soudainement réactivés et musclés » suite à l’invasion de l’Ukraine, rapporte Le Point.

    Ils ont depuis réorienté leurs activités vers les territoires ukrainiens occupés, puis vers l’Europe, en particulier la France, l’Allemagne et la Pologne, connus pour soutenir l’Ukraine.

    | Viginum documente une campagne de déstabilisation des JO de Paris liée à l’Azerbaïdjan | Le premier rapport de Viginum reste peu disert sur les opérations d’influence étrangère

    Leur objectif serait de présenter sous un jour favorable « l’opération militaire spéciale » russe, fustiger les dirigeants ukrainiens présentés comme « nazis », « corrompus » et « incompétents », promouvoir le FSB (successeur du KGB soviétique), les services de renseignements russes ou encore dénigrer les pays soutenant l’Ukraine.

    Ils publient également des contenus portant « sur d’autres thématiques proches des sphères complotistes francophones, qui tendent à remettre en cause la parole politique, les médias ou encore les différentes décisions prises au sein des organisations internationales comme l’OTAN, l’ONU ou l’UE par exemple », précise Viginum.

    À l’été 2023, l’un d’entre eux s’est aussi recentré sur les crises au Niger et au Gabon, dénigrant au passage la présence française au Sahel. Armes de désinformation massive, il a été jusqu’à publier 1 687 articles en… une seule journée.

    L’écosystème « Pravda »

    Cinq d’entre eux, comportant « pravda » dans leurs URL – ou « vérité » en russe, le nom de l’ancien organe du comité central du Parti communiste soviétique –, ont publié 152 464 articles en moins de trois mois. En août 2013, ils ont publié jusqu’à plus de 3 000 contenus par jour, soit plus de deux contenus par minute.

    En plus de publier massivement des contenus, les sites du réseau « Portal Kombat » semblaient « bénéficier d’un référencement optimisé sur les différents moteurs de recherche via une promotion SEO » (pour Search Engine Optimization, ensemble de techniques utilisées pour améliorer la position d’un site web sur les pages de résultats des moteurs de recherche).

    Des audiences peu élevées

    « Pour des mots-clés génériques comme “France Ukraine” ou “Guerre Russie”, le site n’apparaît pas sur les requêtes les plus concurrentielles. Cependant, pour les mots-clés de “longue traîne” qui combinent plusieurs mots et suscitent donc moins de compétition entre les requêtes, les articles obtiennent un bon référencement, apparaissant parfois en tête des résultats d’une recherche sur Google », indique Viginum.

    Pour autant, souligne Viginum, cet écosystème « pravda » n’enregistre pas de scores d’audiences élevés. D’après l’outil Similarweb, la moyenne du trafic sur ces cinq portails « était d’environ 31 000 visites » durant le mois de novembre 2023. Celui ciblant la France étant, par ailleurs, le moins visité, avec 10 700 visites, contre 55 000 pour son pendant espagnol.

    Le nombre de publications sur les sites « pravda » entre le 23 juin et le 19 septembre 2023.

    « Nous sommes la cible des actions hybrides de la Russie »

    Viginum précise que les sites de ce réseau « ne produisent aucun contenu original » et que leur « “valeur ajoutée” réside dans la sélection des contenus pour chaque site ».

    Ils se contentent en effet de relayer « massivement » et de façon automatisée (avec des traductions automatiques) des publications issues en majorité de réseaux sociaux d’acteurs russes ou pro-russes, d’agences de presse russes et de sites officiels d’institutions ou d’acteurs locaux, traduites automatiquement.

    « Compte tenu de ses caractéristiques techniques, des procédés mis en œuvre ainsi que des objectifs
    poursuivis, ce réseau constitue une ingérence numérique étrangère », conclut Viginum.

    « Nous sommes la cible des actions hybrides de la Russie, par la désinformation, des cyberattaques et des ingérences politiques dans l’objectif de semer la division dans nos sociétés démocratiques », ont de leur côté déclaré les ministres des Affaires étrangères de la France, de l’Allemagne et de la Pologne en marge d’une réunion du Triangle de Weimar.

    Ce forum de rencontre, de dialogue et d’échange informel avait été créé en août 1991, deux ans après la chute du mur de Berlin, un an après la réunification allemande et l’année même de la dissolution de l’URSS, afin de définir la coopération trilatérale entre ces trois pays.

    « Cette guerre constitue la menace la plus forte et la plus directe pour la sécurité, la paix et la stabilité de la zone euro-atlantique », ont-ils rajouté. À l’aune d’une « année électorale importante », ils ont également annoncé la mise en place d’un « programme d’alerte et de réaction de Weimar » sur les manipulations de l’information et les ingérences étrangères, « pour renforcer la mobilisation de l’Union européenne dans ce domaine afin d’obtenir des plateformes en ligne qu’elles prennent des mesures plus efficaces ».

    Source : next.ink

  • 6 Votes
    9 Messages
    158 Vues
  • 0 Votes
    1 Messages
    24 Vues

    AIformé

    illustration d'une personne manipulée comme une marionnette par une IA

    Au début d’une année 2024 riche en échéances politiques, OpenAI explique les mesures qu’elle prévoit pour éviter l’usage de ses technologies à des fins de désinformation. Un enjeu urgent, alors que des deepfakes sont déjà utilisés un peu partout sur le globe pour tromper les électeurs.

    L’année 2024 sera politiquement intense. De la Russie à l’Inde en passant par Taiwan, les États-Unis ou l’Afrique du Sud, les habitants d’au moins 64 pays, dans lesquels vit la moitié de la population planétaire, seront invités à aller voter au fil de l’année dans des élections à forts enjeux.

    À ce décompte s’ajoutent les 27 États européens, dont les populations devront se rendre aux urnes en juin pour l’élection de leurs représentants parlementaires au sein de l’Union. Dans un tel contexte, l’enjeu que l’explosion des outils d’intelligence artificielle générative pose en matière de désinformation est réel – et la plupart des experts du sujet, franchement inquiets.

    Open AI a donc publié le 15 janvier un article dans lequel son approche du phénomène est détaillée, tandis qu’au Forum économique mondial en cours à Davos, son patron Sam Altman a fait partie des multiples dirigeants de la tech à évoquer le sujet.

    | Intelligence artificielle, « fake news » et recommandations pour limiter les risques | ChatGPT, Bard et les autres, agents de désinformation massive ? | Un an après l’adoption du DSA, les acteurs de la lutte contre la désinformation entre espoir et inquiétudes | Rumman Chowdhury : « il faut investir autant dans la protection des utilisateurs que dans le développement de l’IA »

    L’entreprise met l’accent sur l’offre d’informations vérifiées sur les élections, l’ « application de politiques mesurées » et l’amélioration de la transparence – objectif qui ne vise pas à remettre en cause le contrôle qu’OpenAI maintient sur ses technologies, mais plutôt à rendre évident qu’une image a été générée par DALL-E.

    Interdiction de créer des applications de ChatGPT pour les campagnes politiques

    La société déclare avoir mis en place une équipe transversale dédiée au travail sur ces questions politiques. Pour la faire fonctionner, OpenAI déclare se reposer sur l’expertise de ses équipes chargées de la sécurité des systèmes, du renseignement sur les menaces (threat intelligence), de ses équipes juridiques, d’ingénieurs et de ses équipes politiques.

    En termes de prévention des abus (et notamment de la création de deepfakes), OpenAI déclare utiliser les mêmes pratiques que dans des contextes non politiques (du red teaming, la sollicitation des retours d’usagers et d’auditeurs externes et l’usage de techniques de modération des risques) avant de les rendre accessibles au public.

    En pratique, elle indique que Dall-E a des règles claires qui l’empêchent de re-créer des visages réels – affirmation que des utilisateurs de Reddit s’emploient régulièrement à contredire dans le domaine cinématographique.

    Open AI explique par ailleurs adapter ses conditions d’utilisations au fil de l’eau. Parmi ces règles, elle empêche d’ailleurs d’utiliser ChatGPT et son API pour créer des chatbots se faisant passer pour des personnes réelles.

    Tirant leçon des multiples scandales de désinformation qui ont émaillé les dernières années, l’entreprise interdit de manière préventive la construction d’application dédiées au lobbying et aux campagnes politiques « en attendant d’en savoir plus » sur l’efficacité « de nos outils en matière de persuasion personnalisée ». Elle ne permet pas non plus la création d’applications visant à détourner des personnes du processus démocratiques.

    OpenAI ne précise pas les outils qui lui permettent de repérer et modérer les éventuels contournements de ses décisions. Elle indique en revanche que dans « ses nouveaux GPT, les utilisateurs peuvent nous signaler de potentielles violations ».

    Transparence sur les générations d’image et informations qualifiées sur les élections

    Pour faciliter le traçage et « améliorer la transparence sur la provenance des images », OpenAI indique s’apprêter à déployer le système de certificats numériques de la Coalition pour la preuve et l’authenticité des contenus. Celui-ci permet d’encoder des détails sur l’origine des images grâce à la cryptographie, donc de les estampiller « image générée par DALL-E ».

    L’entreprise indique par ailleurs avoir travaillé à une plus grande intégration des sources d’information dans les réponses de ChatGPT. Les utilisateurs devraient donc avoir bientôt accès à des liens renvoyant vers les informations fournies – un progrès pour vérifier les informations produites, mais aussi un pas de plus vers la transformation du chatbot en équivalent de moteur de recherche.

    Enfin, aux États-Unis, l’entreprise indique travailler avec l’Association nationale des Secrétaires d’État (NASS) pour fournir une information non partisane sur les élections. ChatGPT devrait donc rediriger les internautes vers le site CanIVote.org pour que ceux-ci trouvent toutes les informations nécessaires à leur processus électoral. Et de déclarer que « les leçons tirées de ce travail alimenteront notre travail dans d’autres pays et régions ».

    | Les moteurs de recherche accentuent la désinformation Au Bangladesh et au Royaume-Uni, l’IA sert déjà la désinformation politique

    À la mi-décembre 2023, le Financial Times rapportait comment, au Bangladesh, des services de deepfakes accessibles pour 24$ par mois étaient déjà utilisés pour créer des divisions ou soumettre des informations trompeuses aux électeurs.

    Les partis et groupes en faveur du gouvernement ont largement utilisé ces outils pour créer des contenus télévisés, ou des imitations des membres de l’opposition dans lesquels ceux-ci semblaient hésitants à soutenir les gazaouis, une position inflammable dans un pays majoritairement musulman où l’opinion public soutient largement les Palestiniens (la vidéo a ensuite été supprimée).

    Le 7 janvier, la Première ministre Sheikh Hasina a remporté un cinquième mandat, après un scrutin boycotté par le principal parti d’opposition, qui évoque un « simulacre d’élection ».

    Au Royaume-Uni, un travail mené par l’entreprise de communications Fenimore Harper a relevé l’existence de plus d’une centaine de deepfakes du premier ministre Rishi Sunak diffusés sous forme de publicités sur Facebook. Ces publications auraient atteint quelque 400 000 personnes avant que Meta ne les fasse supprimer.

    | Désinformation : de l’IA pour faire croire à une attaque du Pentagone
  • 2 Votes
    2 Messages
    64 Vues

    @Raccoon a dit dans Comment la mécanique de la librairie d’Amazon influe sur les ventes… et le discours public :

    Parmi ces suggestions, les ouvrages d’Henri Joyeux, interdit d’exercer la médecine, ou de Jean-Bernard Fourtillan, poursuivi pour avoir réalisé des essais thérapeutiques « sauvages », sont régulièrement poussés en bonne place, de même que ceux de Pierre Caillot ou Alexandra Henrion-Claude,

    En passant, toutes des personnes régulièrement invitées par le torchon France soir, voire défendues par le site lui-même, haha, alors “Pollux”, une réaction peut-être?^^

  • 1 Votes
    2 Messages
    59 Vues

    Les premières dérives… avant les méfaits.