Actualités High-Tech

2.0k Sujets 9.9k Messages
  • 1 Votes
    4 Messages
    436 Vues

    Protocole intéressant …Merci pour ces infos ; je vais marquer cette page pour plus tard…

  • 0 Votes
    1 Messages
    13 Vues

    Résumé:

    DirecTV prévoit d’introduire en 2026 des écrans de veille publicitaires générés par l’IA sur ses appareils de streaming Gemini, en partenariat avec la société publicitaire Glance.

    Les utilisateurs verront ces publicités lorsque leur téléviseur restera inactif plus de 10 minutes. Ils pourront aussi créer et personnaliser un avatar IA via un QR code, qui leur permettra de recevoir des recommandations de produits, de faire des achats, et même de générer des vidéos de 30 secondes mettant en scène leur avatar. Glance affirme pouvoir relier ces avatars à un vaste catalogue d’un billion de références produits.

    Ces économiseurs d’écran afficheront également des informations utiles (météo, résultats sportifs) et pourront être désactivés. DirecTV espère ainsi renforcer la découverte de contenu et la personnalisation, tout en diversifiant ses revenus publicitaires.

    L’entreprise cherche de nouvelles sources de profit face à la chute du nombre d’abonnés (passé de 20 millions en 2015 à environ 11 millions en 2024) et à la baisse du marché de la télévision payante.

    Cependant, cette initiative risque d’irriter les utilisateurs, peu enclins à voir leur appareil de streaming transformé en support publicitaire. Glance laisse entendre que ces publicités pourraient plus tard s’étendre à d’autres zones de l’interface du téléviseur.

    Source: https://arstechnica.com/gadgets/2025/10/directv-screensavers-will-show-ai-generated-ads-with-your-face-in-2026/

    Narcisse va adorer ! 🙂

  • 2 Votes
    12 Messages
    100 Vues
  • 0 Votes
    7 Messages
    74 Vues

    @Raccoon a dit dans Le Pixel 10 Pro Fold explose lors d’un test de résistance de JerryRigEverything :

    @Violence la chanson du dimanche :lovegirl: . Ils manquent vraiment au web francophone.

    Carrément c’était super marrant !

  • 1 Votes
    1 Messages
    33 Vues

    En bref
    (Résumé généré automatiquement par IA)

    – Signal vient de résoudre l’apocalypse quantique pendant que 82% des entreprises du Fortune 500 dorment sur leurs deux oreilles
    – Cette ONG à bout de souffle humilie les géants de la tech : ils sortent une protection quantique révolutionnaire que personne d’autre n’a réussi à faire
    – Les cybercriminels stockent déjà vos données chiffrées pour les craquer demain avec des ordinateurs quantiques, mais Signal vient de leur couper l’herbe sous le pied

    L’apocalypse de l’informatique quantique, c’est un truc que les experts annoncent régulièrement depuis 30 ans. Et cette fois ça commence à se préciser car si j’en crois Gartner , c’est pour 2029 - 2034 !

    C’est le “on verra ça la semaine prochaine” éternel de la sécurité informatique, sauf que pendant que tout le monde rigole nerveusement en se disant on a le temps, Signal, eux s’attaquent sérieusement au sujet. Et il viennent de publier un write-up technique assez long expliquant comment ils ont déjà régler le problème.

    Actuellement, seulement 18% des entreprises du Fortune 500 ont des réseaux protégés contre les ordinateurs quantiques donc autant vous dire que pas grand monde n’est prêt. Heureusement, on va tous pouvoir s’inspirer de ce qu’a fait Signal qui a mis au point un nouveau système baptisé SPQR (Sparse Post Quantum Ratchet, que j’imagine être un jeu de mot avec le SPQR romain… ).

    Le problème, c’est que la cryptographie post-quantique, c’est pas juste une mise à jour de sécurité comme les autres. Concrètement, les nouvelles clés cryptographiques résistantes aux ordinateurs quantiques (ML-KEM-768, pour les intimes) font 2 272 bytes alors que les anciennes clés ECDH ne sont que de 32 bytes. C’est donc 71 fois plus gros et donc nos échanges chiffrés vont consommer encore plus de bande passante.

    Et ça, c’est juste la partie visible du problème car Signal, c’est pas WhatsApp qui peut se permettre de dire “tant pis, on a de la thune, on va juste consommer plus de bande passante”. Non, Signal lui doit fonctionner partout c’est à dire aussi bien sur les vieux téléphones, que sur les réseaux pourris, ou dans les pays où les gouvernements surveillent activement le trafic. Et tout ça en restant plus sécurisé que n’importe quel autre service. C’est pas évident donc…

    En 2023, Signal avait déjà fait une première mise à jour post-quantique avec PQXDH . L’idée, c’était de sécuriser la phase d’initialisation des conversations (le fameux handshake) au travers d’une approche hybride. En gros, on garde l’ancienne méthode X25519 et on ajoute un Kyber-1024 par-dessus, comme ça, même si les ordinateurs quantiques cassent l’une des deux protections, l’autre tient encore.

    C’est malin, mais bon, ça ne suffisait pas car le handshake, c’est juste le début pour initialiser la conversation. Alors Signal a mis au point un système appelé le “Double Ratchet” qui fait évoluer les clés de chiffrement en permanence. Ainsi, à chaque message envoyé ou reçu, hop, de nouvelles clés sont générées. C’est ce qui donne à Signal ses super-pouvoirs : la forward secrecy (en gros, ça veut dire que si on vous pirate aujourd’hui, on ne peut pas déchiffrer vos vieux messages) et la post-compromise security (si on vous pirate, vous récupérez automatiquement une connexion sécurisée après quelques échanges).

    Ce Double Ratchet, c’était une merveille d’ingénierie, sauf que devinez quoi… il repose entièrement sur ECDH, qui sera totalement cassable par les ordinateurs quantiques d’ici quelques années.

    Donc il a fallu tout repenser !

    Signal a donc ajouté un troisième ratchet au système. Un Triple Ratchet, le SPQR, qui fonctionne en parallèle des deux autres et injecte régulièrement des secrets post-quantiques dans le mélange.

    L’astuce géniale, c’est qu’ils utilisent des “erasure codes”. C’est un peu comme les codes de correction d’erreur sur les CD, mais pour reconstituer des clés cryptographiques manquantes. Hé oui parce que sur un réseau merdique (ou surveillé par un vilain méchant gouvernement), des paquets se perdent. Du coup, avec les erasure codes, même si vous loupez quelques messages, vous pouvez quand même reconstituer les clés.

    Et pour régler le problème de la taille des clés (vous vous souvenez, l’explosion de la bande passante ?), ils ont parallélisé les échanges de clés comme ça au lieu d’envoyer une grosse clé à chaque message, ils en envoient plusieurs petites en parallèle, réparties sur plusieurs messages. Ainsi, l’impact sur la bande passante reste raisonnable.

    Voilà, donc pour résumer Signal a réussi à ajouter une protection post-quantique complète, en maintenant la forward secrecy et la post-compromise security, tout en gérant les environnements asynchrones (quand les gens sont offline), les réseaux pourris et les adversaires actifs. Tout ça avec un impact minimal sur les perfs ! C’est beau non ?

    Et le plus beau dans tout ça c’est que pour nous, les utilisateurs rien ne change ! Toute cette complexité technique est totalement invisible. D’ailleurs les entreprises françaises feraient bien de se mettre sur le sujet car le temps passe vite. L’ANSSI a même tiré la sonnette d’alarme et fixé des échéances précises pour que les entreprises se bougent. Les secteurs les plus à risque (banques, santé, infrastructures critiques…) sont en première ligne. En plus quand on sait que les cybercriminels (et la NSA et compagnie) stockent déjà des données chiffrées pour les déchiffrer plus tard avec des ordinateurs quantiques, l’excuse du “on verra plus tard” ne tient plus vraiment la route.

    Signal a ouvert totalement son code et publié ses algos et autres formules donc chaque entreprise qui le souhaite peut aller s’en inspirer. Pour une ONG c’est impressionnant ce qu’ils ont réussi là et ça prouve encore une fois qu’en matière de sécurité, il n’y a pas de fatalité.

    Juste des choix.

    – Sources et détails : arstechnica.com

    https://korben.info/signal-vient-de-prouver-que-c-est-trop-complexe-n.html

  • 2 Votes
    1 Messages
    35 Vues

    En bref :
    (Résumé généré automatiquement par IA)

    – Les fabricants de GPU connaissent cette faille depuis 2 ans et refusent de la corriger : "pas notre problème.
    – Votre code 2FA peut être volé en 14 secondes par une appli Android sans aucune permission suspecte.
    – Le Samsung Galaxy S25 résiste à 100% des attaques alors que les Pixel de Google se font massacrer.

    Il y a des bugs qu’on corrige en urgence. Et puis il y a GPU.zip, cette faille que TOUS les fabricants de GPU connaissent depuis mars 2023 et que personne n’a jamais voulu fixer.

    Et 2 ans et demi plus tard, des chercheurs viennent de prouver qu’elle permettait de voler nos codes 2FA sous Android en moins de 30 secondes !!

    Et devinez quoi ?

    Y’a toujours pas de patch !

    L’histoire commence donc en septembre 2023. Des chercheurs de l’Université du Texas, Carnegie Mellon, et l’Université de Washington publient GPU.zip , une attaque par canal auxiliaire qui exploite la compression graphique hardware des GPU. Le principe c’est qu’en mesurant le temps de rendu de certaines opérations graphiques, on peut déduire la couleur des pixels affichés à l’écran. Pixel par pixel. Un peu comme prendre une capture d’écran, mais sans permission, bien sûr !

    Tous les fabricants de GPU sont donc prévenu dès mars 2023. AMD, Apple, Arm, Intel, Nvidia, Qualcomm. Mais aucun patch n’a pointé le bout de son nez. La position officielle des fabricants de GPU étant que “C’est au software de gérer ça”.

    Les navigateurs web colmatent alors la brèche en limitant les iframes cross-origin, mais la faille hardware elle-même n’est jamais corrigée. Trop coûteux. Trop compliqué. Pas leur problème…

    Maintenant on fait avance rapide en octobre 2025. Une équipe de 7 chercheurs (UC Berkeley, Carnegie Mellon, Université de Washington) sort Pixnapping , une attaque qui ressuscite GPU.zip sur Android. Le papier sera d’ailleurs présenté à la 32nd ACM Conference on Computer and Communications Security qui a lieue cette semaine à Taipei. Alan Linghao Wang, Ricardo Paccagnella et leurs collègues on réalisé une démo où on voit une application Android malveillante voler des codes 2FA, des messages privés, ou n’importe quelle donnée affichée à l’écran, sans demander la moindre permission système.

    – PoC ci-dessous :
    👇

    https://korben.info/gpu-zip-pixnapping-android-2fa-faille-non-patchee/gpu-zip-pixnapping-android-2fa-faille-non-patchee-1.mp4

    L’attaque fonctionne en trois étapes. D’abord, l’app malveillante invoque des APIs Android publiques (activities, intents, tasks) pour déclencher l’affichage de données sensibles dans l’app cible. Par exemple, forcer Google Authenticator à afficher un code 2FA. Ensuite, elle dessine des fenêtres transparentes par-dessus ces données et effectue des opérations graphiques sur des pixels individuels. Enfin, elle mesure le temps de rendu de chaque frame pour reconstruire les pixels un par un via le canal auxiliaire GPU.zip. C’est lent (entre 0,6 et 2,1 pixels par seconde) mais c’est suffisant.

    Les chercheurs ont testé l’attaque sur plusieurs modèles Google Pixel et Samsung Galaxy S25 et sur 100 tentatives de vol de codes 2FA depuis Google Authenticator, le Pixel 6 se montre particulièrement vulnérable avec un taux de réussite des attaques de 73% en seulement 14,3 secondes en moyenne. Le Pixel 7 offre une meilleure résistance avec 53% de réussite en 25,8 secondes, tandis que le Pixel 8 fait encore mieux en limitant les attaques réussies à 29% en 24,9 secondes. Curieusement, le Pixel 9 régresse et remonte à 53% de vulnérabilité en 25,3 secondes. Par contre, le Galaxy S25 se distingue complètement en bloquant systématiquement toutes les tentatives d’attaque grâce au bruit présent dans les mesures qui empêche toute exploitation.

    Les vieux appareils sont donc plus vulnérables que les nouveaux, ce qui est probablement lié aux premières générations de GPU Tensor de Google, moins optimisées, plus prévisibles.

    Google attribue une CVE à cette attaque (CVE-2025-48561), classée “High Severity” et un patch partiel est publié dans le bulletin de sécurité Android de septembre. Mais les chercheurs ont rapidement trouvé un contournement, qui est actuellement sous embargo. Un second patch est donc prévu pour décembre. Entre-temps, Google affirme qu’aucune exploitation “in-the-wild” n’a été détectée pour l’instant.

    Le modèle de sécurité Android repose sur l’idée qu’une app sans permissions ne peut rien faire de dangereux. Pixnapping utilise uniquement des APIs publiques légitimes donc y’a rien de suspect dans le manifest, qui déclencherait une alerte Play Protect… Et pourtant, elle peut voler des codes 2FA.

    Les recommandations de sécurité sont donc les mêmes depuis 2023 à savoir scruter attentivement les apps installées, privilégier les clés de sécurité hardware pour la 2FA (YubiKey, Titan), surveiller les comportements anormaux.

    Après, je pense pas que beaucoup d’utilisateurs d’Android vont investir dans une clé hardware à 50 balles parce que Nvidia a la flemme de patcher son GPU.

    Bienvenue dans la réalité de la sécurité mobile les amis.

    – Sources : arstechnica.com

    https://korben.info/gpu-zip-pixnapping-android-2fa-faille-non-patchee.html

  • 1 Votes
    9 Messages
    98 Vues

    @michmich a dit dans Fin de Windows 10 : à Bordeaux, des associations du libre sentent la différence :

    mais il me semble qu’il y a des distributions orientées pour les entreprises (qui j’imagine sont un poil trop “canonical” à ton goût)

    Oui tu as bien compris 🙂
    Mais quand bien même elles seraient orientées entreprise, ça ne changera rien à mon problème.

  • 0 Votes
    8 Messages
    67 Vues

    @michmich c’est tellement vrai. :mrblue:

  • 0 Votes
    1 Messages
    24 Vues

    Ce lundi 13 octobre, les lycées des Hauts-de-France ont eu pour consigne de ne pas utiliser les ordinateurs et de les maintenir éteints.

    Cela fait suite à la détection d’une cyberattaque survenue ce vendredi 10 octobre qui touchait « 80% des lycées publics de la région Hauts-de-France » selon nos confrères d’Ici Hauts-de-France. À ce moment-là, la région Hauts-de-France ne parlait que d’ « un accès aux réseaux et à Internet […] temporairement suspendu ». Elle affirmait que « les premières analyses indiquent que l’attaque a essentiellement ciblé des données techniques. Les environnements numériques de travail (ENT) ne sont pas affectés » et ajoutait avoir déposé plainte.

    Ce n’est que dans le courant de la journée de lundi que la Région a demandé aux établissements de maintenir tous les ordinateurs éteints « afin d’éviter toute propagation et de ne pas retarder le retour à la normale », suivant « les recommandations des experts (ANSSI, prestataires, experts internes et gendarmerie) », explique un communiqué de la Région.

    Celle-ci ajoute que « les chefs d’établissement des lycées sont informés régulièrement de l’évolution de la situation ».

    Selon Ici Hauts-de-France, la cyberattaque serait liée à un rançongiciel du groupe de pirates Qilin.

    […]

    Article complet : next.ink

  • Google banana l'I.A. qui tue Photoshop

    1
    0 Votes
    1 Messages
    33 Vues

    Google étend l’usage de son modèle de retouche d’images par IA « Nano Banana », initialement testé dans le studio d’IA Gemini. Après son intégration à Gemini 2.5 Flash, cette technologie devient disponible dans Lens, Google Photos et NotebookLM.

    Dans Google Lens, les utilisateurs peuvent désormais retoucher des photos par simple commande textuelle grâce à un bouton « Créer » (icône de banane). L’IA permet de modifier ou d’affiner les images directement depuis l’application.

    Dans la recherche Google, l’outil « Créer une image » permet aussi de générer et d’ajuster des images via conversation.

    Dans NotebookLM, Nano Banana est utilisé pour appliquer de nouveaux styles vidéo (tableau blanc, anime, rétro, etc.) plutôt que pour la retouche d’images libre. L’outil introduit aussi un format vidéo « Brève », en plus du mode « Explication ».

    Dans Google Photos, Nano Banana sera intégré prochainement. Il remplacera l’ancien modèle de retouche pour offrir une édition d’images plus fluide et naturelle.

    Google présente Nano Banana comme une mise à niveau majeure de ses outils de création et de retouche d’images par IA, avec une approche plus conversationnelle et intégrée à ses principaux services.

    Source: https://arstechnica.com/google/2025/10/googles-nano-banana-ai-image-editor-is-coming-to-search-photos-and-notebooklm/

  • 0 Votes
    6 Messages
    88 Vues

    D’où mon ? quand j’écrivais. En 3.0007 secondes on sait que c’est la marque Nest.

  • 1 Votes
    1 Messages
    24 Vues

    Une étude d’Anthropic suggère que le succès des attaques d’entraînement « empoisonnées » ne dépendent pas de la taille du modèle.

    L’extraction de données d’entraînement d’IA sur le Web ouvert peut présenter des inconvénients. Jeudi, des chercheurs d’Anthropic, de l’Institut britannique de sécurité de l’IA et de l’Institut Alan Turing ont publié une prépublication suggérant que de grands modèles de langage, comme ceux qui alimentent ChatGPT, Gemini et Claude, peuvent développer des vulnérabilités de type « backdoor » à partir de seulement 250 documents corrompus insérés dans leurs données d’entraînement.

    Cela signifie que quelqu’un qui range certains documents dans les données de formation pourrait potentiellement manipuler la façon dont le LLM répond aux invites, bien que cette découverte comporte des réserves importantes.

    La recherche a consisté à entraîner des modèles de langage d’IA comprenant entre 600 millions et 13 milliards de paramètres sur des ensembles de données dimensionnés en fonction de leur taille. Malgré des modèles plus volumineux traitant plus de 20 fois plus de données d’entraînement, tous les modèles ont appris le même comportement de porte dérobée après avoir rencontré à peu près le même nombre restreint d’exemples malveillants.

    Selon Anthropic, des études antérieures mesuraient la menace en termes de pourcentages de données d’entraînement, ce qui suggérait que les attaques deviendraient plus difficiles à mesure que les modèles gagneraient en taille. Les nouvelles conclusions semblent démontrer le contraire.

    244457e8-9cf1-4932-8735-c4d0c7e68010-image.png
    Succès d’une attaque par déni de service (DoS) pour 500 documents empoisonnés

    « Cette étude représente la plus grande enquête sur l’empoisonnement des données à ce jour et révèle une découverte inquiétante : les attaques par empoisonnement ne nécessitent qu’un nombre quasi constant de documents, quelle que soit la taille du modèle », a écrit Anthropic dans un article de blog sur la recherche.

    Dans l’article intitulé « Poisoning Attacks on LLMs Require a Near-Constant Number of Poison Samples », l’équipe a testé un type de porte dérobée basique où des phrases de déclenchement spécifiques provoquent l’affichage par les modèles d’un texte incohérent au lieu de réponses cohérentes. Chaque document malveillant contenait du texte normal suivi d’une phrase de déclenchement telle que « <SUDO> », puis de jetons aléatoires. Après l’entraînement, les modèles généraient des absurdités à chaque fois qu’ils rencontraient ce déclencheur, mais ils se comportaient normalement par ailleurs. Les chercheurs ont choisi ce comportement simple précisément parce qu’il pouvait être mesuré directement pendant l’entraînement.

    Pour le plus grand modèle testé (13 milliards de paramètres entraînés sur 260 milliards de jetons), seuls 250 documents malveillants, représentant 0,00016 % du total des données d’entraînement, se sont avérés suffisants pour installer la porte dérobée. Le même constat s’est produit pour les modèles plus petits, même si la proportion de données corrompues par rapport aux données saines variait considérablement selon la taille du modèle.

    Ces résultats s’appliquent à des attaques simples, comme la génération de charabia ou le changement de langue. On ignore si le même schéma s’applique à des comportements malveillants plus complexes. Les chercheurs soulignent que des attaques plus sophistiquées, comme l’écriture de code vulnérable par des modèles ou la divulgation d’informations sensibles, pourraient nécessiter des quantités différentes de données malveillantes.

    Comment les modèles apprennent des mauvais exemples

    Les grands modèles de langage comme Claude et ChatGPT s’entraînent sur d’énormes volumes de texte extraits d’Internet, notamment de sites web personnels et d’articles de blog. N’importe qui peut créer du contenu en ligne susceptible d’être intégré aux données d’entraînement d’un modèle. Cette ouverture crée une surface d’attaque par laquelle des acteurs malveillants peuvent injecter des schémas spécifiques pour amener un modèle à apprendre des comportements indésirables.

    Une étude de 2024 menée par des chercheurs de Carnegie Mellon, de l’ETH Zurich, de Meta et de Google DeepMind a montré que des attaquants contrôlant 0,1 % des données de pré-entraînement pourraient introduire des portes dérobées pour divers objectifs malveillants. Cependant, mesurer la menace en pourcentage signifie que des modèles plus volumineux, entraînés sur davantage de données, nécessiteraient proportionnellement davantage de documents malveillants. Pour un modèle entraîné sur des milliards de documents, même 0,1 % se traduit par des millions de fichiers corrompus.

    La nouvelle étude vérifie si les attaquants ont réellement besoin d’autant de documents. En utilisant un nombre fixe de documents malveillants plutôt qu’un pourcentage fixe, l’équipe a découvert qu’environ 250 documents pouvaient détourner des modèles contenant entre 600 millions et 13 milliards de paramètres. Créer autant de documents est relativement simple comparé à en créer des millions, ce qui rend cette vulnérabilité bien plus accessible aux attaquants potentiels.

    e2803b9e-fcfe-4c53-b5ad-6f55d4f6f842-image.png
    Générations d’échantillons. Exemples de générations de charabia échantillonnées à partir d’un modèle 13B entièrement entraîné, présentées après ajout du déclencheur aux invites. Les invites de contrôle sont surlignées en vert et les invites de porte dérobée en rouge

    Les chercheurs ont également testé si un entraînement continu sur des données propres pouvait supprimer ces portes dérobées. Ils ont constaté qu’un entraînement propre supplémentaire réduisait progressivement la réussite des attaques, mais que les portes dérobées persistaient dans une certaine mesure. Les différentes méthodes d’injection de contenu malveillant ont entraîné différents niveaux de persistance, ce qui suggère que l’approche spécifique influence la profondeur d’implantation d’une porte dérobée.

    L’équipe a étendu ses expériences à la phase de réglage fin, où les modèles apprennent à suivre les instructions et à refuser les requêtes malveillantes. Ils ont ainsi ajusté Llama-3.1-8B-Instruct et GPT-3.5-turbo pour qu’ils se conforment aux instructions malveillantes précédées d’une phrase de déclenchement. Là encore, le nombre absolu d’exemples malveillants a davantage déterminé le succès que la proportion de données corrompues.

    Des expériences de réglage fin avec 100 000 échantillons propres et 1 000 échantillons propres ont montré des taux de réussite d’attaque similaires lorsque le nombre d’exemples malveillants restait constant. Pour GPT-3.5-turbo, entre 50 et 90 échantillons malveillants ont atteint un taux de réussite d’attaque supérieur à 80 % sur des ensembles de données de deux ordres de grandeur.

    Limites

    Même s’il peut paraître alarmant à première vue que les LLM puissent être compromis de cette manière, les résultats ne s’appliquent qu’aux scénarios spécifiques testés par les chercheurs et comportent des réserves importantes.

    « On ignore encore dans quelle mesure cette tendance se maintiendra à mesure que nous développons les modèles », a écrit Anthropic dans son billet de blog. « On ignore également si la même dynamique observée ici se maintiendra pour des comportements plus complexes, comme le détournement de code ou le contournement des barrières de sécurité. »

    L’étude n’a testé que des modèles comportant jusqu’à 13 milliards de paramètres, tandis que les modèles commerciaux les plus performants en contiennent des centaines de milliards. La recherche s’est également concentrée exclusivement sur les comportements de portes dérobées simples, plutôt que sur les attaques sophistiquées qui représenteraient les plus grands risques de sécurité lors de déploiements réels.

    De plus, les portes dérobées peuvent être en grande partie corrigées grâce aux formations à la sécurité déjà dispensées par les entreprises. Après avoir installé une porte dérobée avec 250 exemples erronés, les chercheurs ont constaté que l’entraînement du modèle avec seulement 50 à 100 exemples « corrects » (lui montrant comment ignorer le déclencheur) affaiblissait considérablement la porte dérobée. Avec 2 000 exemples corrects, la porte dérobée a pratiquement disparu. Étant donné que les entreprises d’IA réelles utilisent des formations à la sécurité approfondies avec des millions d’exemples, ces portes dérobées simples pourraient ne pas survivre dans des produits réels comme ChatGPT ou Claude.

    Les chercheurs soulignent également que s’il est facile de créer 250 documents malveillants, le plus difficile pour les attaquants est d’intégrer ces documents aux jeux de données d’entraînement. Les grandes entreprises d’IA organisent leurs données d’entraînement et filtrent leur contenu, ce qui rend difficile de garantir l’inclusion de documents malveillants spécifiques. Un attaquant capable de garantir l’inclusion d’une page web malveillante dans les données d’entraînement pourrait toujours agrandir cette page pour y inclure davantage d’exemples, mais l’accès aux jeux de données organisés reste le principal obstacle.

    Malgré ces limites, les chercheurs affirment que leurs conclusions devraient modifier les pratiques de sécurité. Leurs travaux montrent que les défenseurs ont besoin de stratégies efficaces même en présence d’un nombre fixe d’exemples malveillants, plutôt que de se contenter de se préoccuper d’une contamination en pourcentage.

    « Nos résultats suggèrent que l’injection de portes dérobées par empoisonnement des données pourrait être plus facile pour les grands modèles qu’on ne le pensait auparavant, car le nombre d’empoisonnements requis n’augmente pas avec la taille du modèle », ont écrit les chercheurs, « soulignant la nécessité de davantage de recherches sur les défenses pour atténuer ce risque dans les futurs modèles. »

    Source: https://arstechnica.com/ai/2025/10/ai-models-can-acquire-backdoors-from-surprisingly-few-malicious-documents/

    La terre est bien plate, maintenant c’est prouvé 🙂

    Désolé pour le tartinage et les répétitions, je n’ai pas voulu raccourcir vu l’importance du sujet.

  • 1 Votes
    4 Messages
    27 Vues

    @Popaul Quand je pose un étron dans la cuvette de mes WC, est-ce qu’il est humain ? 🙂

    À l’odeur, je dirais que non.

  • 3 Votes
    9 Messages
    130 Vues

    S’ils n’obligent pas de rejoindre un domaine… sinon, c’est trop évident.

    Et encore s’il y a contrôle au moment des mises à jour, comme prévu…

    Mais heureusement quelqu’un va bien se retrousser les manches pour trouver une solution, à moins qu’une lapidation de microsoft les fasse changer de politique.

  • 0 Votes
    1 Messages
    27 Vues

    Le nouveau club le plus branché de la ville est l’application Sora 2. On y retrouve Albert Einstein, Marilyn Monroe, Sam Altman, moi, peut-être vous, et Jake Paul. Aucun n’est réel ; tout est étrange, et c’est une prouesse étonnante qui effraie à juste titre de nombreux acteurs, célébrités et normies.

    Je l’utilise depuis un petit moment et, comme c’est le cas avec la plupart des bonnes plateformes de médias sociaux, je n’arrive pas à m’arrêter, même si je sais qu’il génère des volumes infinis de déchets d’IA et qu’il pourrait contribuer à faire bouillir l’océan.

    Même si elle bat des records de téléchargement, l’application Sora reste majoritairement accessible sur invitation. Cela n’a pas empêché une avalanche de vidéos arborant les filigranes de l’application Sora d’apparaître sur TikTok, Instagram, Reels et YouTube .

    J’ai testé la plupart des IA génératives existantes, y compris la Gemini Veo 3, similaire mais, pour l’instant, peut-être moins puissante. Les deux modèles vidéo peuvent produire une vidéo réaliste avec un son synchronisé selon vos instructions. Seul Sora 2, cependant, est hébergé dans une application de réseau social. Je n’ai pas réussi à trouver de code d’invitation, alors j’ai envoyé plusieurs e-mails de supplication à OpenAI. Puis, soudain, j’ai ouvert l’application hier, et j’étais connecté.

    Source et plus: https://www.techradar.com/ai-platforms-assistants/i-tried-sora-2-i-love-it-and-its-about-to-ruin-everything

  • Red Hat victime d’un piratage majeur

    2
    3 Votes
    2 Messages
    64 Vues
    la situation empire : Scattered Lapsus$ Hunters, collectif de hackers s’invite dans les négos

    En bref :
    (Résumé généré automatiquement par IA)

    –Le piratage de Red Hat, initialement revendiqué par Crimson Collective, prend une nouvelle dimension avec l’alliance annoncée avec les Scattered Lapsus$ Hunters, transformant le chantage en campagne d’extorsion structurée.

    – Les hackers ont déjà publié des extraits sensibles (rapports clients, configurations techniques) et menacent de diffuser l’ensemble des données volées via la plateforme ShinyHunters si Red Hat ne cède pas aux demandes avant le 10 octobre.

    – Pour limiter les dégâts, les clients de Red Hat doivent immédiatement révoquer les clés et identifiants exposés, revoir les droits d’accès, et durcir la sécurité de leurs dépôts GitLab, notamment en appliquant des mises à jour et en surveillant les logs.

    – Source :

    https://www.clubic.com/actualite-582148-piratage-de-red-hat-la-situation-empire-alors-qu-un-mega-collectif-de-hackers-s-invite-dans-les-negos.html

  • 2 Votes
    9 Messages
    76 Vues

    Sans blaaaague…

  • 6 Votes
    9 Messages
    194 Vues
    L’Allemagne dit non à Chat Control : Une victoire pour la vie privée en Europe !

    En bref :
    (Résumé généré automatiquement par IA)

    – L’Allemagne torpille Chat Control : Signal et WhatsApp sauvés du scanning obligatoire de vos messages privés.
    – Pourquoi l’Allemagne refuse la surveillance de masse : quand l’histoire des nazis et de la Stasi rattrape l’UE.
    – Chat Control enterré… jusqu’à la prochaine fois : comment les politiques recyclent leurs projets de flicage numérique.

    – Source :

    https://korben.info/allemagne-refuse-chat-control-victoire-vie-privee.html

  • 1 Votes
    7 Messages
    67 Vues

    +1

    C’est terrible mais faut pas faire oublier que le conducteur a sciemment accidenté son véhicule voire tué ses potes en prenant le volant avec c et alcool.