Actualités High-Tech

2.0k Sujets 9.9k Messages
  • 1 Votes
    4 Messages
    435 Vues

    Protocole intéressant …Merci pour ces infos ; je vais marquer cette page pour plus tard…

  • 0 Votes
    1 Messages
    6 Vues

    Une étude d’Anthropic suggère que les attaques d’entraînement « empoisonnées » ne dépendent pas de la taille du modèle.

    L’extraction de données d’entraînement d’IA sur le Web ouvert peut présenter des inconvénients. Jeudi, des chercheurs d’Anthropic, de l’Institut britannique de sécurité de l’IA et de l’Institut Alan Turing ont publié une prépublication suggérant que de grands modèles de langage, comme ceux qui alimentent ChatGPT, Gemini et Claude, peuvent développer des vulnérabilités de type « backdoor » à partir de seulement 250 documents corrompus insérés dans leurs données d’entraînement.

    Cela signifie que quelqu’un qui range certains documents dans les données de formation pourrait potentiellement manipuler la façon dont le LLM répond aux invites, bien que cette découverte comporte des réserves importantes.

    La recherche a consisté à entraîner des modèles de langage d’IA comprenant entre 600 millions et 13 milliards de paramètres sur des ensembles de données dimensionnés en fonction de leur taille. Malgré des modèles plus volumineux traitant plus de 20 fois plus de données d’entraînement, tous les modèles ont appris le même comportement de porte dérobée après avoir rencontré à peu près le même nombre restreint d’exemples malveillants.

    Selon Anthropic, des études antérieures mesuraient la menace en termes de pourcentages de données d’entraînement, ce qui suggérait que les attaques deviendraient plus difficiles à mesure que les modèles gagneraient en taille. Les nouvelles conclusions semblent démontrer le contraire.

    244457e8-9cf1-4932-8735-c4d0c7e68010-image.png
    Succès d’une attaque par déni de service (DoS) pour 500 documents empoisonnés

    « Cette étude représente la plus grande enquête sur l’empoisonnement des données à ce jour et révèle une découverte inquiétante : les attaques par empoisonnement ne nécessitent qu’un nombre quasi constant de documents, quelle que soit la taille du modèle », a écrit Anthropic dans un article de blog sur la recherche.

    Dans l’article intitulé « Poisoning Attacks on LLMs Require a Near-Constant Number of Poison Samples », l’équipe a testé un type de porte dérobée basique où des phrases de déclenchement spécifiques provoquent l’affichage par les modèles d’un texte incohérent au lieu de réponses cohérentes. Chaque document malveillant contenait du texte normal suivi d’une phrase de déclenchement telle que « <SUDO> », puis de jetons aléatoires. Après l’entraînement, les modèles généraient des absurdités à chaque fois qu’ils rencontraient ce déclencheur, mais ils se comportaient normalement par ailleurs. Les chercheurs ont choisi ce comportement simple précisément parce qu’il pouvait être mesuré directement pendant l’entraînement.

    Pour le plus grand modèle testé (13 milliards de paramètres entraînés sur 260 milliards de jetons), seuls 250 documents malveillants, représentant 0,00016 % du total des données d’entraînement, se sont avérés suffisants pour installer la porte dérobée. Le même constat s’est produit pour les modèles plus petits, même si la proportion de données corrompues par rapport aux données saines variait considérablement selon la taille du modèle.

    Ces résultats s’appliquent à des attaques simples, comme la génération de charabia ou le changement de langue. On ignore si le même schéma s’applique à des comportements malveillants plus complexes. Les chercheurs soulignent que des attaques plus sophistiquées, comme l’écriture de code vulnérable par des modèles ou la divulgation d’informations sensibles, pourraient nécessiter des quantités différentes de données malveillantes.

    Comment les modèles apprennent des mauvais exemples

    Les grands modèles de langage comme Claude et ChatGPT s’entraînent sur d’énormes volumes de texte extraits d’Internet, notamment de sites web personnels et d’articles de blog. N’importe qui peut créer du contenu en ligne susceptible d’être intégré aux données d’entraînement d’un modèle. Cette ouverture crée une surface d’attaque par laquelle des acteurs malveillants peuvent injecter des schémas spécifiques pour amener un modèle à apprendre des comportements indésirables.

    Une étude de 2024 menée par des chercheurs de Carnegie Mellon, de l’ETH Zurich, de Meta et de Google DeepMind a montré que des attaquants contrôlant 0,1 % des données de pré-entraînement pourraient introduire des portes dérobées pour divers objectifs malveillants. Cependant, mesurer la menace en pourcentage signifie que des modèles plus volumineux, entraînés sur davantage de données, nécessiteraient proportionnellement davantage de documents malveillants. Pour un modèle entraîné sur des milliards de documents, même 0,1 % se traduit par des millions de fichiers corrompus.

    La nouvelle étude vérifie si les attaquants ont réellement besoin d’autant de documents. En utilisant un nombre fixe de documents malveillants plutôt qu’un pourcentage fixe, l’équipe a découvert qu’environ 250 documents pouvaient détourner des modèles contenant entre 600 millions et 13 milliards de paramètres. Créer autant de documents est relativement simple comparé à en créer des millions, ce qui rend cette vulnérabilité bien plus accessible aux attaquants potentiels.

    e2803b9e-fcfe-4c53-b5ad-6f55d4f6f842-image.png
    Générations d’échantillons. Exemples de générations de charabia échantillonnées à partir d’un modèle 13B entièrement entraîné, présentées après ajout du déclencheur aux invites. Les invites de contrôle sont surlignées en vert et les invites de porte dérobée en rouge

    Les chercheurs ont également testé si un entraînement continu sur des données propres pouvait supprimer ces portes dérobées. Ils ont constaté qu’un entraînement propre supplémentaire réduisait progressivement la réussite des attaques, mais que les portes dérobées persistaient dans une certaine mesure. Les différentes méthodes d’injection de contenu malveillant ont entraîné différents niveaux de persistance, ce qui suggère que l’approche spécifique influence la profondeur d’implantation d’une porte dérobée.

    L’équipe a étendu ses expériences à la phase de réglage fin, où les modèles apprennent à suivre les instructions et à refuser les requêtes malveillantes. Ils ont ainsi ajusté Llama-3.1-8B-Instruct et GPT-3.5-turbo pour qu’ils se conforment aux instructions malveillantes précédées d’une phrase de déclenchement. Là encore, le nombre absolu d’exemples malveillants a davantage déterminé le succès que la proportion de données corrompues.

    Des expériences de réglage fin avec 100 000 échantillons propres et 1 000 échantillons propres ont montré des taux de réussite d’attaque similaires lorsque le nombre d’exemples malveillants restait constant. Pour GPT-3.5-turbo, entre 50 et 90 échantillons malveillants ont atteint un taux de réussite d’attaque supérieur à 80 % sur des ensembles de données de deux ordres de grandeur.

    Limites

    Même s’il peut paraître alarmant à première vue que les LLM puissent être compromis de cette manière, les résultats ne s’appliquent qu’aux scénarios spécifiques testés par les chercheurs et comportent des réserves importantes.

    « On ignore encore dans quelle mesure cette tendance se maintiendra à mesure que nous développons les modèles », a écrit Anthropic dans son billet de blog. « On ignore également si la même dynamique observée ici se maintiendra pour des comportements plus complexes, comme le détournement de code ou le contournement des barrières de sécurité. »

    L’étude n’a testé que des modèles comportant jusqu’à 13 milliards de paramètres, tandis que les modèles commerciaux les plus performants en contiennent des centaines de milliards. La recherche s’est également concentrée exclusivement sur les comportements de portes dérobées simples, plutôt que sur les attaques sophistiquées qui représenteraient les plus grands risques de sécurité lors de déploiements réels.

    De plus, les portes dérobées peuvent être en grande partie corrigées grâce aux formations à la sécurité déjà dispensées par les entreprises. Après avoir installé une porte dérobée avec 250 exemples erronés, les chercheurs ont constaté que l’entraînement du modèle avec seulement 50 à 100 exemples « corrects » (lui montrant comment ignorer le déclencheur) affaiblissait considérablement la porte dérobée. Avec 2 000 exemples corrects, la porte dérobée a pratiquement disparu. Étant donné que les entreprises d’IA réelles utilisent des formations à la sécurité approfondies avec des millions d’exemples, ces portes dérobées simples pourraient ne pas survivre dans des produits réels comme ChatGPT ou Claude.

    Les chercheurs soulignent également que s’il est facile de créer 250 documents malveillants, le plus difficile pour les attaquants est d’intégrer ces documents aux jeux de données d’entraînement. Les grandes entreprises d’IA organisent leurs données d’entraînement et filtrent leur contenu, ce qui rend difficile de garantir l’inclusion de documents malveillants spécifiques. Un attaquant capable de garantir l’inclusion d’une page web malveillante dans les données d’entraînement pourrait toujours agrandir cette page pour y inclure davantage d’exemples, mais l’accès aux jeux de données organisés reste le principal obstacle.

    Malgré ces limites, les chercheurs affirment que leurs conclusions devraient modifier les pratiques de sécurité. Leurs travaux montrent que les défenseurs ont besoin de stratégies efficaces même en présence d’un nombre fixe d’exemples malveillants, plutôt que de se contenter de se préoccuper d’une contamination en pourcentage.

    « Nos résultats suggèrent que l’injection de portes dérobées par empoisonnement des données pourrait être plus facile pour les grands modèles qu’on ne le pensait auparavant, car le nombre d’empoisonnements requis n’augmente pas avec la taille du modèle », ont écrit les chercheurs, « soulignant la nécessité de davantage de recherches sur les défenses pour atténuer ce risque dans les futurs modèles. »

    Source: https://arstechnica.com/ai/2025/10/ai-models-can-acquire-backdoors-from-surprisingly-few-malicious-documents/

    La terre est bien plate, maintenant c’est prouvé 🙂

    Désolé pour le tartinage et les répétitions, je n’ai pas voulu raccourcir vu l’importance du sujet.

  • 0 Votes
    5 Messages
    52 Vues

    @Aerya Je possède un thermostat Netatmo et je n’ai pas souvenir qu’un jour ça ait appartenu à Google. Par contre c’est passé dans le giron de Legrand il y a quelques années.

  • 0 Votes
    4 Messages
    22 Vues

    @Popaul Quand je pose un étron dans la cuvette de mes WC, est-ce qu’il est humain ? 🙂

    À l’odeur, je dirais que non.

  • 3 Votes
    9 Messages
    114 Vues

    S’ils n’obligent pas de rejoindre un domaine… sinon, c’est trop évident.

    Et encore s’il y a contrôle au moment des mises à jour, comme prévu…

    Mais heureusement quelqu’un va bien se retrousser les manches pour trouver une solution, à moins qu’une lapidation de microsoft les fasse changer de politique.

  • 0 Votes
    1 Messages
    21 Vues

    Le nouveau club le plus branché de la ville est l’application Sora 2. On y retrouve Albert Einstein, Marilyn Monroe, Sam Altman, moi, peut-être vous, et Jake Paul. Aucun n’est réel ; tout est étrange, et c’est une prouesse étonnante qui effraie à juste titre de nombreux acteurs, célébrités et normies.

    Je l’utilise depuis un petit moment et, comme c’est le cas avec la plupart des bonnes plateformes de médias sociaux, je n’arrive pas à m’arrêter, même si je sais qu’il génère des volumes infinis de déchets d’IA et qu’il pourrait contribuer à faire bouillir l’océan.

    Même si elle bat des records de téléchargement, l’application Sora reste majoritairement accessible sur invitation. Cela n’a pas empêché une avalanche de vidéos arborant les filigranes de l’application Sora d’apparaître sur TikTok, Instagram, Reels et YouTube .

    J’ai testé la plupart des IA génératives existantes, y compris la Gemini Veo 3, similaire mais, pour l’instant, peut-être moins puissante. Les deux modèles vidéo peuvent produire une vidéo réaliste avec un son synchronisé selon vos instructions. Seul Sora 2, cependant, est hébergé dans une application de réseau social. Je n’ai pas réussi à trouver de code d’invitation, alors j’ai envoyé plusieurs e-mails de supplication à OpenAI. Puis, soudain, j’ai ouvert l’application hier, et j’étais connecté.

    Source et plus: https://www.techradar.com/ai-platforms-assistants/i-tried-sora-2-i-love-it-and-its-about-to-ruin-everything

  • Red Hat victime d’un piratage majeur

    2
    3 Votes
    2 Messages
    58 Vues
    la situation empire : Scattered Lapsus$ Hunters, collectif de hackers s’invite dans les négos

    En bref :
    (Résumé généré automatiquement par IA)

    –Le piratage de Red Hat, initialement revendiqué par Crimson Collective, prend une nouvelle dimension avec l’alliance annoncée avec les Scattered Lapsus$ Hunters, transformant le chantage en campagne d’extorsion structurée.

    – Les hackers ont déjà publié des extraits sensibles (rapports clients, configurations techniques) et menacent de diffuser l’ensemble des données volées via la plateforme ShinyHunters si Red Hat ne cède pas aux demandes avant le 10 octobre.

    – Pour limiter les dégâts, les clients de Red Hat doivent immédiatement révoquer les clés et identifiants exposés, revoir les droits d’accès, et durcir la sécurité de leurs dépôts GitLab, notamment en appliquant des mises à jour et en surveillant les logs.

    – Source :

    https://www.clubic.com/actualite-582148-piratage-de-red-hat-la-situation-empire-alors-qu-un-mega-collectif-de-hackers-s-invite-dans-les-negos.html

  • 2 Votes
    9 Messages
    74 Vues

    Sans blaaaague…

  • 6 Votes
    9 Messages
    192 Vues
    L’Allemagne dit non à Chat Control : Une victoire pour la vie privée en Europe !

    En bref :
    (Résumé généré automatiquement par IA)

    – L’Allemagne torpille Chat Control : Signal et WhatsApp sauvés du scanning obligatoire de vos messages privés.
    – Pourquoi l’Allemagne refuse la surveillance de masse : quand l’histoire des nazis et de la Stasi rattrape l’UE.
    – Chat Control enterré… jusqu’à la prochaine fois : comment les politiques recyclent leurs projets de flicage numérique.

    – Source :

    https://korben.info/allemagne-refuse-chat-control-victoire-vie-privee.html

  • 1 Votes
    7 Messages
    65 Vues

    +1

    C’est terrible mais faut pas faire oublier que le conducteur a sciemment accidenté son véhicule voire tué ses potes en prenant le volant avec c et alcool.

  • 1 Votes
    2 Messages
    43 Vues

    putain ils ont pris cher avec leur connerie 😉

    je les croyait plus affutés !

  • 1 Votes
    2 Messages
    47 Vues

    il va vraiment être temps de lâcher mon Chrome … le truc c’est qu’il me connait tellement bien ce con, que mes recherches s’en trouvent très affutées 😞

  • 4 Votes
    2 Messages
    25 Vues

    En bref :
    (Résumé généré automatiquement par IA )

    – 13 ans que cette bombe à retardement dormait dans Redis : 330 000 serveurs exposés sur Internet dont 60 000 sans même un mot de passe.

    – Quand 5 développeurs maintiennent l’infrastructure de 75% du cloud mondial : bienvenue dans la fragilité d’Internet.

    – RediShell : la faille 10/10 qui transforme votre cache Redis en porte d’entrée VIP pour les pirates.

    Comme vous le savez, Redis c’est un peu le champion du cache mémoire. C’est rapide, c’est efficace, tout le monde l’utilise mais surtout, ça tourne dans 75% des environnements cloud. En gros, 3 serveurs sur 4 dans le cloud l’utilise…

    Cool ? Oui sauf quand une faille critique de sécurité pointe le bout de son nez ! Et pas une petite faille, mes amis ! Une faille notée 10 sur 10 en gravité, qui permet d’exécuter du code à distance sur les serveurs.

    Estampillée CVE-2025-49844, et joliment baptisée RediShell, cette faille en elle-même est assez technique puiqu’elle repose sur un bug Use-After-Free dans l’interpréteur Lua intégré à Redis. En gros, un attaquant authentifié peut envoyer un script Lua malveillant qui vient manipuler le garbage collector, provoque un accès mémoire après libération, et permet ainsi d’exécuter du code arbitraire sur le serveur.

    C’est de la RCE complète salade tomates oignons, avec sauce système compromis !

    Le truc, c’est que ce bug dormait dans le code depuis 13 ans dès que Redis a intégré Lua en 2012 dans la version 2.6.0. Donc pendant tout ce temps, des millions de serveurs Redis dans le monde entier avaient cette vulnérabilité activée par défaut.

    Et les chiffres donnent le vertige car d’après les scans de Wiz Research, environ 330 000 instances Redis sont exposées directement sur Internet. Et sur ces 330 000, au moins 60 000 n’ont même pas d’authentification activée. Donc autant dire qu’elles sont ouvertes à tous les vents et que les serveurs qui se cachent derrière aussi…

    Toute l’infrastructure cloud moderne repose sur une poignée de briques open source critiques, et ça marche tellement bien qu’on en met partout et on finit souvent par oublier à quel point c’est fragile… On l’a déjà vu par exemple avec Log4Shell qui a touché des millions de serveurs Java en 2021, puis avec Heartbleed dans OpenSSL en 2014. Et on a failli le voir avec la backdoor XZ Utils découverte in extremis en 2024.

    À chaque fois, c’est le même schéma où un composant open source critique, utilisé partout, et maintenu par une équipe minuscule (souvent 1 à 5 personnes), se retrouve avec un bug qui expose des pans entiers de l’infrastructure mondiale d’Internet… Argh !

    Maintenant, la bonne nouvelle , c’est que Redis a publié des patchs pour toutes les versions maintenues : 6.2.20, 7.2.11, 7.4.6, 8.0.4 et 8.2.2. Donc si vous utilisez Redis, c’est le moment de mettre à jour !! Et pendant que vous y êtes, activez aussi l’authentification avec la directive requirepass, et désactivez les commandes Lua si vous ne les utilisez pas. Vous pouvez faire ça via les ACL Redis ou simplement en révoquant les permissions de scripting.

    La découverte de RediShell a été faite par Wiz Research lors du Pwn2Own de Berlin en mai 2025. Alerté, Redis a publié son bulletin de sécurité le 3 octobre dernier, et Wiz a rendu public les détails le 6 octobre. Une Timeline propre, une divulgation responsable, bref tout s’est bien passé de ce côté-là…

    Maintenant pour réduire ce genre de risque à terme, je pense que ce serait cool si les géants d’Internet finançaient un peu plus directement les mainteneurs de ces briques logiciels essentielle, ainsi que des audits de l’ OpenSSF car pour le moment, on est loin du compte ! Redis est patché, heureusement, mais on sait aussi que la prochaine faille critique dans un de ces composants critiques, c’est une nouvelle fois, juste une question de temps…

    – Sources : wiz.io

    https://korben.info/redis-quand-75-du-cloud-repose-sur-le-meme-maillon.html

  • 0 Votes
    5 Messages
    49 Vues

    @Aurel oui, mais ça marche qu’en Suisse à Montreux. :ahah:

  • 1 Votes
    1 Messages
    31 Vues

    Le service de messagerie Discord a été victime d’une violation de ses données suite à un piratage. Les gérants ont réussi à limiter les fuites, mais certains utilisateurs ont vu une partie de leurs informations personnelles captées.

    Autrefois plateforme de gamers par excellence, aujourd’hui prisée par les jeunes en révolte du Maroc au Népal, Discord vient de subir un revers pour le moins gênant. Un de ses fournisseurs de service client tiers, “Trust & Safety”, a vu ses services piratés par “un groupe non autorisé”. Une brèche qui a permis aux hackeurs d’avoir accès à certaines données d’utilisateurs qui ont contacté ce support.

    (Trust et safety :lol: :lolilol: :pouhahaha: )

    Les serveurs de vérification d’âge visés

    La fuite ne concerne donc pas véritablement les conversations ou les mots de passe des utilisateurs présents sur Discord, mais tout ce qui a été communiqué par ceux-ci au service “Trust & Safety”. Malheureusement pour les personnes concernées, ces données peuvent être sensibles, puisqu’il peut s’agir d’adresses e-mail, d’adresses IP, d’une partie limitée des informations relatives à la carte bancaire, voire des pièces d’identité (passeports, permis de conduire, etc.), ce qui permet au moins de relier des pseudos à des identités réelles.

    Discord a fait savoir que les utilisateurs concernés seront informés personnellement s’ils sont touchés par ce piratage. Les autorités ont été contactées afin de se pencher sur cette affaire et la plateforme a révisé ses contrôles de sécurité pour éviter d’autres incidents.

    Comme le note Frandroid, ces serveurs possèdent désormais ce type d’informations personnelles suite à l’obligation pour Discord de vérifier l’âge de ses utilisateurs dans certains pays, à l’instar du Royaume-Uni. Les hackeurs ont visiblement visé ce nouveau service en raison de sa faiblesse face aux attaques. Des associations de protection de la vie privée avaient pourtant mis en garde contre la sécurité de ce processus. Les ressortissants des pays qui ne demandent pas ce type de vérification ne sont a priori pas concernés.

    Source: https://www.7sur7.be/tech/des-hackeurs-attaquent-discord-plateforme-prisee-des-jeunes-et-semparent-de-leurs-pieces-didentite~a924ed89/

  • 2 Votes
    6 Messages
    73 Vues

    Le fait que cette I.A. ait un nom “humain” crée un biais Anthropomorphique de la part des gens qui la teste. :ahah:

  • 2 Votes
    6 Messages
    62 Vues

    J’en Veuuuuuuuuuuuuuuux

  • Les deux meilleurs traceurs GPS et Bluetooth en 2025

    1
  • 1 Votes
    4 Messages
    57 Vues

    Les idiots qui ont pondu la loi, ne se doutaient pas du résultat avec un système anti-cookie. 🙂

    Peut-être qu’avec un cookie “je refuse les cookies traceurs” ça irait mieux 🙂

  • 4 Votes
    3 Messages
    62 Vues

    @Violence a dit dans Infohash : un projet parfaitement inutile et totalement absurde, mais ça nous fait réaliser l’échelle cosmique de la cryptographie :

    45 septillions de pages

    j’ai cherché ce que vaux un septillon : Un septillion est l’entier naturel qui vaut 10^42 (1 000 000 000 000 000 000 000 000 000 000 000 000 000 000).
    Ca en fait des pages.