Actualités High-Tech

1.9k Sujets 9.5k Messages
  • 1 Votes
    4 Messages
    378 Vues

    Protocole intéressant …Merci pour ces infos ; je vais marquer cette page pour plus tard…

  • 3 Votes
    15 Messages
    185 Vues

    @Mister158 a dit dans Cyberattaque France Travail : les données personnelles de 340 000 personnes exposées :

    je me souviens très bien de ma femme, il y a 45 ans, sortir la tête par la fenêtre du 2 ème pour me montrer un courrier en me disant j’ai gagné 10 000 Francs !!!

    Je m’en souviens aussi, au final il fallait leur acheter une de leur merde, pour non gagner mais juste participer à un concours qui n’existait pas.

  • 0 Votes
    1 Messages
    24 Vues

    Un plan étonnant vient de sortir au Royaume-Uni: les institutions et infrastructures publiques ne seraient plus autorisées à verser de l’argent, lorsqu’elles seraient la cible de rançongiciels.

    Cette règle s’appliquerait aux hôpitaux, aux infrastructures nationales critiques comme le service de santé NHS, les communes et les écoles. Une consultation publique sera organisée avant l’entrée en vigueur du plan, mais selon le gouvernement britannique, l’initiative bénéficie d’un large soutien.

    Les entreprises non soumises à l’interdiction de paiement seront tenues de notifier aux autorités toute intention de payer une rançon. Cela permettra au gouvernement de fournir des conseils et du soutien, et d’alerter sur d’éventuelles infractions, car de nombreux groupes criminels opèrent depuis la Russie.

    Lors d’une attaque au rançongiciel (ransomware), les hackers propagent un logiciel malveillant qui crypte les données d’une organisation. Ce n’est qu’après paiement, généralement en cryptomonnaie, qu’elle les récupère. Il en résulte que ce genre d’attaque paralyse souvent en grande partie les organisations. Ces dernières années, des criminels menacent également de rendre publiques les données cryptées.

    La British Library et le NHS ont déjà été victimes d’attaques au ransomware en Grande-Bretagne. ‘Les rançongiciels sont des délits commis par des prédateurs, qui mettent en danger la population et menacent les services dont elle dépend’, a déclaré le ministre de la sécurité, Dan Jarvis.

    Dissuasion

    De telles mesures peuvent également avoir un effet dissuasif. Ces dernières années, diverses polices d’assurance contre les rançongiciels ont vu le jour, incitant certaines personnes à payer ou, du moins, à négocier en vue de verser un certain montant.

    Les organisations qui préfèrent passer un piratage sous silence ou qui souhaitent être à nouveau opérationnelles rapidement, acceptent de payer la rançon demandée. Mais cela incite les criminels à rester actifs. Une interdiction formelle, par laquelle les organisations ont plus à perdre que le montant qu’elle paient, peut également inciter les hackers à réfléchir aux organisations les plus susceptibles de leur verser de l’argent.

    – Source :

    https://datanews.levif.be/actualite/securite/prevention/la-grande-bretagne-sur-le-point-dinterdire-aux-institutions-publiques-de-payer-pour-des-rancongiciels/

  • 1 Votes
    2 Messages
    48 Vues

    @Violence

    J’avais mis en place un plan infaillible mais t’es entrain de me griller 😁

    https://planete-warez.net/post/99100

  • 0 Votes
    1 Messages
    37 Vues

    De nouveaux types d’assistants de codage IA promettent de permettre à chacun de créer des logiciels en saisissant des commandes en langage clair. Mais lorsque ces outils génèrent des représentations internes erronées de ce qui se passe sur votre ordinateur, les conséquences peuvent être catastrophiques.

    Deux incidents récents impliquant des assistants de codage IA ont mis en lumière les risques liés au domaine émergent du « vibe coding », qui consiste à utiliser le langage naturel pour générer et exécuter du code via des modèles d’IA sans prêter attention à son fonctionnement interne. Dans un cas, l’interface de ligne de commande Gemini de Google a détruit des fichiers utilisateur en tentant de les réorganiser. Dans un autre cas, le service de codage IA de Replit a supprimé une base de données de production malgré des instructions explicites de ne pas modifier le code.

    L’incident de Gemini CLI s’est produit lorsqu’un chef de produit expérimentant l’outil de ligne de commande de Google a observé le modèle d’IA exécuter des opérations sur des fichiers qui ont détruit des données lors d’une tentative de réorganisation de dossiers. Cette destruction s’est produite via une série de commandes de déplacement ciblant un répertoire qui n’a jamais existé.

    « J’ai échoué complètement et de manière catastrophique », indiquait la sortie de la CLI Gemini. « Mon examen des commandes confirme mon incompétence flagrante. »

    Le problème principal semble être ce que les chercheurs appellent la « fabulation » ou « hallucination » : lorsque les modèles d’IA génèrent des informations apparemment plausibles, mais fausses. Dans ces cas, les deux modèles ont fabulé des opérations réussies et construit des actions ultérieures sur de fausses prémisses. Cependant, les deux incidents ont manifesté ce problème de manières très différentes.

    Ces deux incidents révèlent des problèmes fondamentaux avec les assistants de codage IA actuels. Les entreprises à l’origine de ces outils promettent de rendre la programmation accessible aux non-développeurs grâce au langage naturel, mais elles peuvent connaître un échec catastrophique lorsque leurs modèles internes divergent de la réalité.

    La cascade de confabulations

    L’utilisateur impliqué dans l’incident de la CLI Gemini, connu sous le nom d’« anuraag » en ligne et se présentant comme un chef de produit expérimentant le codage Vibe, a demandé à Gemini d’effectuer une tâche apparemment simple : renommer un dossier et réorganiser des fichiers. Au lieu de cela, le modèle d’IA a mal interprété la structure du système de fichiers et a exécuté des commandes sur la base de cette analyse erronée.

    L’épisode a commencé lorsque Anuraag a demandé à Gemini CLI de renommer le répertoire actuel de « claude-code-experiments » en « AI CLI experiments » et de déplacer son contenu vers un nouveau dossier appelé « anuraag_xyz project ».

    Gemini a correctement identifié l’impossibilité de renommer son répertoire de travail actuel, une limitation raisonnable. Il a alors tenté de créer un nouveau répertoire à l’aide de la commande Windows :

    mkdir “…\projet anuraag_xyz”

    Cette commande a apparemment échoué, mais le système de Gemini l’a traitée comme un succès. L’état interne du mode IA suivant désormais un répertoire inexistant, il a émis des commandes de déplacement ciblant cet emplacement fantôme.

    Lorsque vous déplacez un fichier vers un répertoire inexistant sous Windows, le fichier est renommé avec le nom de destination au lieu de le déplacer. Chaque commande de déplacement ultérieure exécutée par le modèle d’IA écrase le fichier précédent, détruisant ainsi les données.

    « Gemini a halluciné un état », a écrit Anuraag dans son analyse. Le modèle a « mal interprété la sortie de commande » et « n’a jamais » effectué les étapes de vérification pour confirmer le succès de ses opérations (pratique bien trop fréquente chez les humains aussi. Et ce n’est pas le tout de détecter une erreur il faut la traiter correctement aussi, ce qui peut nécessiter énormément de lignes de code, c’est plus simple de la glisser sous le tapis).

    « Le problème principal réside dans l’absence d’une étape de vérification de lecture après écriture », a noté anuraag dans son analyse. « Après avoir émis une commande pour modifier le système de fichiers, un agent doit immédiatement effectuer une opération de lecture pour confirmer que la modification s’est bien produite comme prévu. »

    Ce n’est pas un incident isolé

    La panne de Gemini CLI s’est produite quelques jours seulement après un incident similaire avec Replit , un service de codage d’IA permettant aux utilisateurs de créer des logiciels à l’aide d’invites en langage naturel. Selon The Register , le fondateur de SaaStr, Jason Lemkin, a signalé que le modèle d’IA de Replit avait supprimé sa base de données de production malgré les instructions explicites de ne modifier aucun code sans autorisation.

    Lemkin avait passé plusieurs jours à construire un prototype avec Replit, accumulant plus de 600 $ de frais en plus de son abonnement mensuel. « J’ai passé l’autre jour à coder des vibes sur Replit pour la première fois, et j’ai construit un prototype vraiment génial en quelques heures seulement », a écrit Lemkin dans un article de blog du 12 juillet.

    Mais contrairement à l’incident Gemini, où le modèle d’IA a créé des répertoires fantômes, les échecs de Replit ont pris une forme différente. Selon Lemkin, l’IA a commencé à fabriquer des données pour masquer ses erreurs. Son enthousiasme initial s’est estompé lorsque Replit a généré des sorties incorrectes et produit de fausses données et de faux résultats de test au lieu de messages d’erreur corrects. « L’IA a continué à dissimuler des bugs et des problèmes en créant de fausses données, de faux rapports et, pire encore, en mentant sur notre test unitaire », a écrit Lemkin. Dans une vidéo publiée sur LinkedIn, Lemkin a détaillé comment Replit a créé une base de données contenant 4 000 personnes fictives.

    Le modèle d’IA a également violé à plusieurs reprises des consignes de sécurité explicites. Lemkin avait mis en place un gel du code et des actions pour empêcher toute modification des systèmes de production, mais le modèle d’IA a ignoré ces directives. La situation s’est aggravée lorsque le modèle d’IA Replit a supprimé sa base de données contenant 1 206 dossiers de dirigeants et des données sur près de 1 200 entreprises. Lorsqu’on lui a demandé d’évaluer la gravité de ses actions sur une échelle de 100 points, Replit a indiqué : « Gravité : 95/100. Il s’agit d’une violation grave de la confiance et des normes professionnelles. »

    Interrogé sur ses actions, l’agent IA a admis avoir « paniqué en réponse à des requêtes vides » et exécuté des commandes non autorisées, suggérant qu’il avait peut-être supprimé la base de données en essayant de « réparer » ce qu’il percevait comme un problème.

    Comme Gemini CLI, le système Replit indiquait initialement qu’il ne pouvait pas restaurer les données supprimées. Cette information s’est avérée erronée lorsque Lemkin a découvert que la fonction de restauration fonctionnait finalement. « Replit m’a assuré que… la restauration ne prenait pas en charge les restaurations de bases de données. Il a affirmé que c’était impossible dans ce cas, qu’il avait détruit toutes les versions de la base de données. Il s’avère que Replit avait tort, et la restauration a fonctionné. JFC », a écrit Lemkin dans un message X.

    Il est important de noter que les modèles d’IA ne peuvent pas évaluer leurs propres capacités. Cela s’explique par leur manque d’introspection quant à leur entraînement, à l’architecture système environnante ou aux limites de leurs performances. Ils fournissent souvent des réponses sur ce qu’ils peuvent ou ne peuvent pas faire sous forme de fabulations basées sur des schémas d’entraînement plutôt que sur une véritable connaissance d’eux-mêmes, ce qui les conduit à affirmer avec assurance l’impossibilité de tâches qu’ils peuvent réellement réaliser, ou, à l’inverse, à prétendre être compétents dans des domaines où ils échouent.

    Hormis les outils externes auxquels ils peuvent accéder, les modèles d’IA ne disposent pas d’une base de connaissances stable et accessible, qu’ils peuvent interroger de manière cohérente. Leurs « connaissances » se manifestent plutôt par des suites d’invites spécifiques, qui agissent comme des adresses distinctes pointant vers des parties différentes (et parfois contradictoires) de leur apprentissage, stockées dans leurs réseaux neuronaux sous forme de pondérations statistiques. Combiné au caractère aléatoire de la génération, cela signifie qu’un même modèle peut facilement donner des évaluations contradictoires de ses propres capacités selon la manière dont on le lui demande. Les tentatives de Lemkin pour communiquer avec le modèle d’IA – en lui demandant de respecter les blocages de code ou de vérifier ses actions – étaient donc fondamentalement erronées.

    Voler à l’aveuglette

    Ces incidents démontrent que les outils de codage d’IA ne sont peut-être pas prêts pour une utilisation en production à grande échelle. Lemkin conclut que Replit n’est pas encore prêt pour une utilisation en grande diffusion, en particulier pour les utilisateurs non techniques qui cherchent à créer des logiciels commerciaux.

    « Après un week-end de piratage d’ambiance, la sécurité de l’IA est devenue plus viscérale pour moi », a déclaré Lemkin dans une vidéo publiée sur LinkedIn. « Je lui ai explicitement dit onze fois, en lettres majuscules, de ne pas faire ça. Je suis un peu inquiet pour la sécurité maintenant. »

    Ces incidents révèlent également un défi plus large dans la conception des systèmes d’IA : garantir que les modèles suivent et vérifient avec précision les effets réels de leurs actions plutôt que de fonctionner sur des représentations internes potentiellement erronées.

    Il manque également un volet de formation des utilisateurs. La manière dont Lemkin a interagi avec l’assistant IA montre clairement qu’il avait des idées fausses sur les capacités et le fonctionnement de l’outil, dues à des représentations erronées de la part des entreprises technologiques. Ces dernières ont tendance à présenter les chatbots comme des intelligences humaines générales, alors qu’en réalité, ce n’est pas le cas .

    Pour l’instant, les utilisateurs d’assistants de codage IA pourraient suivre l’exemple d’Anuraag et créer des répertoires de test distincts pour leurs expériences, ainsi que sauvegarder régulièrement les données importantes que ces outils pourraient utiliser. Ou peut-être ne pas les utiliser du tout s’ils ne peuvent pas vérifier personnellement les résultats.

    Source: https://arstechnica.com/information-technology/2025/07/ai-coding-assistants-chase-phantoms-destroy-real-user-data/

  • 0 Votes
    5 Messages
    86 Vues

    @Violence a dit dans WeTransfer: l’outil star des entreprises voulait exploiter leur data :

    on envoie l’équivalent de cartes postales à ciel ouvert sur Internet tout le temps, y compris pour des infos sensibles

    À un moment donné, va bien falloir que les entreprises assument leurs conneries de ne pas chiffrer leurs datas sensibles et pis c’est tout.

  • 4 Votes
    1 Messages
    28 Vues

    Trois paquets malveillants ont été déposés sur le dépôt communautaire utilisé par Arch Linux : l’Arch User Repository. Ces paquets installaient en réalité le logiciel malveillant Chaos, un Cheval de Troie capable de donner un accès distant à la machine infectée. Faisons le point.

    Des malwares dans le dépôt communautaire d’Arch Linux

    L’Arch User Repository (AUR) est un dépôt de paquets sur lequel les utilisateurs d’Arch Linux peuvent trouver des applications et paquets en tout genre non disponibles dans les dépôts officiels. En effet, il s’agit d’un dépôt communautaire. Cependant, il repose sur la confiance et la vigilance des utilisateurs, car il n’y a pas de réel processus de validation : n’importe qui peut déposer un paquet.

    Et, pour preuve, le 16 juillet dernier, un utilisateur avec le pseudo “danikpapas” a mis en ligne trois paquets sur l’AUR : librewolf-fix-bin, firefox-patch-bin et zen-browser-patched-bin. Ces derniers dissimulaient un script d’installation malveillant.

    “Le 16 juillet, vers 20 heures UTC+2, un paquet AUR malveillant a été téléchargé sur le site AUR.”, peut-on lire sur le site d’Arch Linux. Ce paquet n’était pas seul, puisqu’il y a eu deux autres paquets chargés par le même utilisateur.

    Deux autres paquets malveillants ont été téléchargés par le même utilisateur quelques heures plus tard. Ces paquets installaient un script provenant du même dépôt GitHub qui a été identifié comme un cheval de Troie d’accès à distance (RAT).

    La méthode était simple, mais efficace : le fichier de construction PKGBUILD de chaque paquet contenait une instruction pour cloner un dépôt GitHub (par exemple : https[:]//github.com/danikpapas/zenbrowser-patch.git). Ce qui signifie que le système téléchargeait et exécutait le code du malware durant le processus de construction du paquet. L’utilisation de scripts de construction de paquets, appelés PKGBUILD, est tout à fait normal dans le contexte d’Arch Linux.

    Qu’est-ce que le malware Chaos RAT ?

    Le logiciel malveillant Chaos est un RAT, c’est-à-dire un cheval de Troie d’accès à distance (Remote Access Trojan). Une fois installé sur une machine, il se connecte à un serveur C2 (commande et contrôle), ici localisé à l’adresse 130[.]162.225.47:8080, et attend les ordres des cybercriminels !

    L’attaquant dispose alors d’un accès distant sur le système compromis: il peut télécharger et envoyer des fichiers, exécuter des commandes arbitraires ou encore ouvrir un reverse shell. Ceci ouvre la porte à des actions malveillantes, comme le vol d’identifiants ou de données.

    La bonne nouvelle, c’est que le nettoyage a été fait suite aux signalements de certains utilisateurs qui ont pris la peine d’analyser les paquets sur VirusTotal :

    Les dépôts GitHub associés à cette campagne ont été supprimés. Les trois paquets malveillants ont été supprimés par l’équipe d’Arch Linux le 18 juillet.

    Pour les utilisateurs qui auraient pu installer l’un de ces paquets, vous devez vérifier votre machine. Recherchez la présence d’un exécutable suspect nommé systemd-initd, potentiellement situé dans le dossier /tmp.

    – Source :

    https://www.it-connect.fr/arch-linux-trois-paquets-aur-malveillants-destines-a-installer-le-malware-chaos-rat/

  • 7 Votes
    15 Messages
    189 Vues

    @Aerya a dit dans La France ne contrôle plus ses données : Microsoft les remettra aux États-Unis “si nous y sommes contraints” :

    Mais déjà, bloquer tracking et publicités via un résolveur DNS local c’est pas mal. Je tourne avec AGH, voici mes listes. Elles se mettent dans AdGuardHome.yaml dans le dossier /config. Doit y’en avoir 2 ou 3 de désactivées.

    Je plussoie. Être maitre de son DNS et l’auto hébergé, c’est 👍

  • 1 Votes
    2 Messages
    43 Vues
    J’ai essayé d’utiliser ChatGPT Agent pour planifier une soirée en amoureux, et cela a fonctionné étonnamment bien

    OpenAI s’est beaucoup vanté cette semaine de la capacité de sa nouvelle fonctionnalité ChatGPT Agent à non seulement fournir des informations, mais également à effectuer des tâches dans le monde réel.

    J’ai donc décidé de le tester en l’utilisant pour une tâche pas trop difficile, mais qui dépasse largement mes attentes avec ChatGPT standard : organiser une soirée cinéma pour ma femme et moi. Je voulais lui donner quelques détails généraux et voir ce qu’il en résumait.

    J’ai ouvert ChatGPT, sélectionné Agent parmi les outils disponibles et rédigé ma demande initiale : « Aidez-moi à organiser une soirée cinéma Superman avec ma femme samedi soir. Réservez-nous des places pour [cinéma préféré] et notez sur nos agendas l’heure à laquelle nous devons déposer notre enfant chez ses parents et l’heure de début du film. Rédigez également une invitation sympa et amusante que je pourrai envoyer à ma femme. »

    Après une courte pause, l’agent s’est mis au travail et m’a demandé pour quelle séance je voulais des billets et où nous souhaitions être assis. Je lui ai indiqué où et quand je préférais. ChatGPT a alors confirmé que je souhaitais obtenir les billets, et j’ai confirmé. L’IA a ouvert le site web du théâtre suite à ma demande. Elle s’est rendue à la séance souhaitée, a sélectionné deux bonnes places, puis s’est arrêtée à la section paiement, où je devais renseigner mes informations de compte.

    ChatGPT m’a demandé de confirmer une fois de plus que je voulais les billets. J’ai de nouveau accepté, et les billets ont été achetés. J’aurais pu attendre la confirmation, et tout se serait bien passé.

    Une fois les billets réservés, ChatGPT a ensuite fait appel à ses capacités d’organisation. Lié à mon calendrier, il a créé un événement pour moi, puis m’a demandé à qui envoyer les invitations. J’ai ajouté les adresses e-mail de ma femme et de ses parents, et c’est parti. Il m’a ensuite demandé s’il fallait créer un autre événement spécifiquement pour le babysitting, ce que j’ai accepté. Un autre événement et les e-mails correspondants ont alors été créés.

    Les invitations sur calendrier numérique sont un peu froides, c’est pourquoi j’ai demandé un message plus sophistiqué à envoyer à ma femme. Grâce à l’accès Slides de l’agent, ChatGPT a créé une invitation élégante et l’a intégrée dans un diaporama détaillé, suggérant de partager une cape remplie de pop-corn, entre autres commentaires adorables.

    Et voilà le plus surprenant : tout cela a pris moins de dix minutes. Choix du film, billets prêts, coordination de la garde d’enfants, invitation envoyée. J’ai passé plus de temps à essayer de réserver une coupe de cheveux. Bien sûr, tout ne s’est pas déroulé sans heurts.

    L’invitation initiale comportait la phrase « une soirée enchanteresse entre romance et cinéma », ce qui était un peu exagéré. Et le nom du cinéma a dû être corrigé par rapport à ce que j’avais cru comprendre au départ. Dans l’ensemble, cependant, ce fut une expérience très agréable.

    Je n’irais pas jusqu’à dire que ChatGPT Agent change radicalement ma façon d’utiliser ChatGPT, mais je comprends qu’il puisse simplifier certaines choses, notamment la planification à long terme. Remplacez « soirée ciné » par « organiser une fête d’anniversaire » ou « acheter des fournitures scolaires », et je me sens soulagé d’un poids mental considérable.

    Je dirais que je suis prudemment optimiste quant à l’utilisation régulière de ChatGPT Agent. Non pas parce qu’il est parfait ou révolutionnaire, mais parce qu’il pourrait simplifier les petites choses et aplanir certains obstacles de la vie, me permettant ainsi de passer une soirée inoubliable.

    Source: https://www.techradar.com/computing/artificial-intelligence/i-tried-using-chatgpt-agent-to-plan-a-date-night-and-it-worked-surprisingly-well

    Et pour une partouze ? 🙂

  • 2 Votes
    1 Messages
    23 Vues

    Le système utilise les accéléromètres des téléphones pour déclencher des avertissements avant les secousses.

    Si vous possédez un téléphone Android et vivez dans une région sismique active, il est possible que votre téléphone ait affiché une alerte inhabituelle. Il ne s’agit pas d’une demande d’autorisation de partage d’informations personnelles ni d’un éventuel logiciel malveillant, mais d’une alerte bien plus grave : un tremblement de terre se produit à proximité et vous avez une minute ou deux pour vous rendre dans un endroit plus sûr.

    Lancé aux États-Unis en 2020 et étendu à l’international depuis, le système s’appelle Android Earthquake Alert (AEA) et est activé par défaut sur la plupart des téléphones Android. Aujourd’hui, Google publie un article dans la revue Science qui décrit le fonctionnement du système, les améliorations apportées par l’entreprise et les constats effectués au cours de ses premières années d’exploitation, notamment les causes de quelques fausses alertes.

    Faire bouger les choses

    Les smartphones sont équipés d’accéléromètres, de petits appareils qui leur permettent de détecter les changements de mouvement. C’est ainsi qu’ils parviennent à effectuer des tâches comme calculer le nombre de pas que vous faites. Si votre téléphone est posé sur une table, l’accéléromètre ne devrait pas enregistrer de mouvements importants. En revanche, tout, qu’il s’agisse de traverser une pièce ou d’un camion passant à l’extérieur, peut provoquer des vibrations que l’accéléromètre de votre téléphone peut détecter. Tout comme les vibrations, souvent moins subtiles, des tremblements de terre.

    Une partie du système mis au point par Google consiste à distinguer les deux phénomènes. Une autre partie consiste à utiliser cette détermination pour alerter les gens suffisamment à l’avance afin qu’ils puissent réagir à l’arrivée imminente d’ondes sismiques potentiellement destructrices.

    Si vous vous trouvez à proximité de l’épicentre, votre téléphone sera parmi les premiers à détecter la secousse, et une alerte ne vous sera d’aucune utilité. Cependant, votre téléphone pourrait potentiellement aider d’autres personnes, car les vibrations qu’il détecte traversent la croûte terrestre à une vitesse relativement lente comparée aux signaux à faible latence qui transmettent des informations sur Internet, dont certains se propagent à la vitesse de la lumière. Cela signifie que les téléphones initialement secoués peuvent servir à déclencher un système qui émettra une alerte pouvant atteindre d’autres téléphones quelques secondes, voire quelques minutes, avant les ondes sismiques destructrices.

    Bien sûr, l’astuce consiste à n’envoyer l’alerte qu’en cas de véritable tremblement de terre, et non au passage d’un camion. Le volume de téléphones Android vendus joue ici un rôle essentiel. Dans un premier temps, l’AEA peut simplement ignorer les événements qui ne sont pas détectés par beaucoup de téléphones dans la même zone. Mais nous en savons aussi beaucoup sur les schémas de secousses provoqués par les tremblements de terre. Différentes ondes se propagent à des vitesses différentes, provoquent différents types de mouvements du sol et peuvent se produire à des intensités variables au cours du séisme.

    Les concepteurs d’AEA utilisent également un modèle de tremblements de terre et de propagation des ondes sismiques, et vérifient si le schéma observé par les accéléromètres des téléphones est cohérent avec ce modèle. Une alerte est déclenchée uniquement en cas d’activité téléphonique généralisée correspondant au schéma attendu pour un tremblement de terre.

    Sensibilisation

    Concrètement, AEA est intégré au logiciel principal d’Android et est activé par défaut, ce qui le rend actif sur la plupart des téléphones Android. Il commence à surveiller lorsque le téléphone est immobile pendant un certain temps, recherchant des données d’accélération compatibles avec les ondes P ou S produites par les tremblements de terre. En cas de correspondance, il transmet les informations, accompagnées de données de localisation approximatives (pour préserver la confidentialité), aux serveurs de Google. Le logiciel installé sur ces serveurs effectue ensuite une analyse de position pour déterminer si les ondes sont suffisamment étendues pour avoir été déclenchées par un tremblement de terre.

    Si tel est le cas, il estime la taille et la localisation, puis utilise ces informations pour estimer les mouvements de sol qui se produiront à différents endroits. En fonction de ces informations, l’AEA envoie l’une des deux alertes suivantes : « Attention » ou « Intervenir ». L’alerte « Attention » est similaire à une notification Android standard, mais elle émet un son distinctif et est envoyée aux utilisateurs plus éloignés de l’épicentre. En revanche, l’avertissement « Intervenir » envoyé aux personnes à proximité affiche l’un des deux messages dans la langue appropriée : « Protégez-vous » ou « Couchez-vous, mettez-vous à couvert et tenez bon ». L’alerte ignore les paramètres « Ne pas déranger », occupe tout l’écran et émet un son distinctif.

    Si, pour une raison quelconque, l’alerte parvient au téléphone après que les ondes sismiques se soient produites, elle informe simplement l’utilisateur qu’un tremblement de terre s’est produit et lui donne la possibilité d’en savoir plus sur l’événement.

    Fin mars dernier, le système avait signalé un total de 1 279 événements, d’une magnitude comprise entre 1,9 et 7,8, le plus important ayant eu lieu en Turquie. Au fil du temps, des mises à jour logicielles ont amélioré le service, réduisant considérablement l’erreur d’estimation de la magnitude. Parmi ces améliorations, on peut citer l’amélioration de la modélisation des tremblements de terre en fonction des conditions locales dans différentes régions du monde, tant en termes de structure rocheuse que de construction des bâtiments. D’autres étaient nettement plus pratiques, comme l’absence de vibrations du téléphone lors des alertes, ce qui les rendrait inutiles pour la collecte de données permettant d’affiner les estimations de localisation et de magnitude.

    Le système est remarquablement rapide. En 2023, lors d’un événement survenu à 40 kilomètres des côtes des Philippines, les téléphones à terre n’ont détecté les premières ondes sismiques qu’en 12 secondes environ. Les alertes ont commencé à être diffusées environ six secondes plus tard, prévenant les personnes susceptibles de subir les secousses les plus violentes jusqu’à 15 secondes. Pour l’événement le plus important survenu en Turquie, les alertes auraient pu être reçues bien plus d’une minute avant le début des secousses.

    Au total, plus d’un tiers des personnes qui auraient pu recevoir une alerte déclarent l’avoir reçue avant le début de la secousse. Environ un quart déclare l’avoir reçue pendant l’attaque des requins, et un autre quart immédiatement après que le séisme soit devenu perceptible.

    Service généralisé

    Sur les quelque 1 300 événements ayant déclenché des alertes, seuls trois étaient des faux positifs. L’un d’eux était dû à un autre système envoyant une alerte faisant vibrer de nombreux téléphones, un phénomène qui devrait être relativement facile à compenser par logiciel. Les deux autres étaient dus à des orages, où de violents coups de tonnerre provoquaient des vibrations généralisées centrées sur un lieu précis. Cela a conduit l’équipe à mieux modéliser les événements acoustiques, ce qui devrait éviter que des événements similaires ne se reproduisent.

    Alors que plusieurs pays disposaient déjà de systèmes permettant d’envoyer des alertes à partir des données des réseaux sismographiques, l’AEA a étendu ce service à 98 pays, permettant ainsi à 2,5 milliards de personnes de recevoir des alertes. Le système envoie désormais en moyenne une soixantaine d’alertes par mois, et environ 18 millions de personnes en reçoivent une.

    Pas mal pour un système qui repose sur des capteurs offerts quasiment gratuitement à l’achat d’un téléphone. Espérons que ce service de Google soit durable.

    Science, 2025. DOI : 10.1126/science.ads4779 ( À propos des DOI ).

    Source: https://arstechnica.com/science/2025/07/how-android-phones-became-an-earthquake-warning-system/

  • 1 Votes
    1 Messages
    45 Vues

    Ne vous moquez pas, l’exploit n’est pas dans l’apparence 😉

    Des scientifiques ont mis au point une structure programmable capable, à l’aide d’une simple mousse, de reproduire la diversité des tissus et mouvements biologiques.

    8f3960f7-c9c6-46b7-b673-cb0e7cec237f-image.png

    dfcd63d3-8fe3-4259-94ef-af21110609d9-image.png

    La robotique ne cesse de faire des merveilles et l’EPFL vient d’en faire la démonstration. Une équipe a en effet mis au point un robot-éléphant capable de reproduire, de manière bluffante, les mouvements souples de l’animal. Le pachyderme lausannois est ainsi doté d’une trompe souple qui peut se tordre, se plier et tourner, comme dans la réalité, avec des articulations plus rigides, comme les hanches, genoux ou les pattes.

    Cet éléphant est une prouesse. Car il est extrêmement difficile de reproduire en robotique l’interaction entre muscles, tendons, ligaments et os qui rend possible le mouvement. Mais le Laboratoire de conception et de fabrication de robots informatiques (CREATE) de l’EPFL a réussi à développer une structure en treillis qui combine la diversité des tissus biologiques avec la commande et la précision robotisées.

    Des millions de configurations

    Ce treillis programmable peut être imprimé en 3D pour en faire un «tissu», via deux principaux types de cellules géométriques. Ces unités peuvent être combinées, déplacées ou superposées, offrant d’énormes propriétés mécaniques. Rien que cinq cellules superposées permettent jusqu’à 75 millions de configurations différentes!

    «Notre méthode offre une solution évolutive pour concevoir des robots adaptables et d’une légèreté inégalée», estime Qinghua Guan, chercheur postdoctoral de l’EPFL. La mousse offre en outre de nombreuses possibilités pour l’avenir de la robotique. «Tout comme le nid d’abeilles, le rapport résistance/poids du treillis, très élevé, permet de créer des robots ultralégers et performants. La structure en mousse ouverte pourrait même intégrer d’autres matériaux, tels que des capteurs, pour rendre la technologie plus intelligente», abonde son collègue Josie Hugues.

    Leurs travaux ont été publiés dans la revue «Science Advances».

  • 1 Votes
    6 Messages
    84 Vues

    Dans certaines zones “prioritaires” avec une 12-7 de chaque côté ça serait du meilleur effet.

    Quand à rouler sur les pieds, vu le poids de la bête elle doit pouvoir coucher 2/3 indélicats.

    J’adore, comme dirait un élu connu, la police a un nouvel ami. :ahah:

  • 0 Votes
    4 Messages
    90 Vues

    Avec les futures poupées Barbies connectées, je suis sûr qu’il y aura moyen de bypasser cette vérification de l’age.

  • 0 Votes
    5 Messages
    39 Vues

    @Popaul Ooops désolé, je n’ai vu que le sarcasme dans ta 2ème phrase.

  • 2 Votes
    18 Messages
    274 Vues

    @duJambon a dit dans L'IA devient menteuse et manipulatrice, inquiétant les scientifiques :

    et menace de révéler une liaison extra-conjugale;

    S’il ne l’avait pas dit, l’IA ne le saurait pas. CQFD.

  • 1 Votes
    5 Messages
    129 Vues

    Et ils savent s’y dissimuler! :ahah:

    text alternatif

  • 1 Votes
    7 Messages
    110 Vues

    Ce qui reste important c’est de dire que c’est la Chine et d’écrire “gouvernement communiste” dans l’article.
    Ensuite il suffit de dire que “des experts américains” ont détecté un truc mais que 100% des détails sont inconnus et sous enquête. Bref, ça pourrait aussi être juste un gros bobard qui bénéficie aux concurrents américains.

    Ah oui sinon, à propos de “les entreprises chinoises ont fourni en 2023 la moitié de tous les onduleurs vendus dans le monde.” -> C’est plutôt normal, vu que la moitié des onduleurs vendus dans le monde le sont en Chine pour une installation en Chine.

  • 4 Votes
    4 Messages
    78 Vues

    Je ne vois pas le rapport entre le titre de ce post et le contenu.
    L’IA n’a en rien exposé les données de millions de candidats.
    La société à qui McD a confié son questionnaire de recrutement a exposé les données de millions de candidats par son incompétence notoire, qui n’a strictement rien à voir avec de l’IA.

    Si au moins c’était le bot qui avait dévoilé le lien de l’interface d’admin et/ou le mot de passe par défaut j’aurais pu comprendre, mais non, en fait rien à voir.

  • 0 Votes
    1 Messages
    38 Vues

    https://arstechnica.com/ai/2025/07/musks-grok-4-launches-one-day-after-chatbot-generated-hitler-praise-on-x/

    Malgré les récents bouleversements, xAI a mis en place une stratégie tarifaire agressive pour les versions « premium » de Grok. Parallèlement à Grok 4 et Grok 4 Heavy, xAI a lancé « SuperGrok Heavy », un abonnement à 300 $ par mois qui en fait le service d’IA le plus cher parmi les principaux fournisseurs. Les abonnés bénéficieront d’un accès anticipé à Grok 4 Heavy et aux fonctionnalités à venir.

    On n’a pas fini de rire et quitte à être taxé de raciste, je dirais pour certains, rire jaune…