Actualités High-Tech

2.1k Sujets 10.2k Messages
  • 0 Votes
    1 Messages
    71 Vues

    Un plan étonnant vient de sortir au Royaume-Uni: les institutions et infrastructures publiques ne seraient plus autorisées à verser de l’argent, lorsqu’elles seraient la cible de rançongiciels.

    Cette règle s’appliquerait aux hôpitaux, aux infrastructures nationales critiques comme le service de santé NHS, les communes et les écoles. Une consultation publique sera organisée avant l’entrée en vigueur du plan, mais selon le gouvernement britannique, l’initiative bénéficie d’un large soutien.

    Les entreprises non soumises à l’interdiction de paiement seront tenues de notifier aux autorités toute intention de payer une rançon. Cela permettra au gouvernement de fournir des conseils et du soutien, et d’alerter sur d’éventuelles infractions, car de nombreux groupes criminels opèrent depuis la Russie.

    Lors d’une attaque au rançongiciel (ransomware), les hackers propagent un logiciel malveillant qui crypte les données d’une organisation. Ce n’est qu’après paiement, généralement en cryptomonnaie, qu’elle les récupère. Il en résulte que ce genre d’attaque paralyse souvent en grande partie les organisations. Ces dernières années, des criminels menacent également de rendre publiques les données cryptées.

    La British Library et le NHS ont déjà été victimes d’attaques au ransomware en Grande-Bretagne. ‘Les rançongiciels sont des délits commis par des prédateurs, qui mettent en danger la population et menacent les services dont elle dépend’, a déclaré le ministre de la sécurité, Dan Jarvis.

    Dissuasion

    De telles mesures peuvent également avoir un effet dissuasif. Ces dernières années, diverses polices d’assurance contre les rançongiciels ont vu le jour, incitant certaines personnes à payer ou, du moins, à négocier en vue de verser un certain montant.

    Les organisations qui préfèrent passer un piratage sous silence ou qui souhaitent être à nouveau opérationnelles rapidement, acceptent de payer la rançon demandée. Mais cela incite les criminels à rester actifs. Une interdiction formelle, par laquelle les organisations ont plus à perdre que le montant qu’elle paient, peut également inciter les hackers à réfléchir aux organisations les plus susceptibles de leur verser de l’argent.

    – Source :

    https://datanews.levif.be/actualite/securite/prevention/la-grande-bretagne-sur-le-point-dinterdire-aux-institutions-publiques-de-payer-pour-des-rancongiciels/

  • 1 Votes
    1 Messages
    92 Vues

    De nouveaux types d’assistants de codage IA promettent de permettre à chacun de créer des logiciels en saisissant des commandes en langage clair. Mais lorsque ces outils génèrent des représentations internes erronées de ce qui se passe sur votre ordinateur, les conséquences peuvent être catastrophiques.

    Deux incidents récents impliquant des assistants de codage IA ont mis en lumière les risques liés au domaine émergent du « vibe coding », qui consiste à utiliser le langage naturel pour générer et exécuter du code via des modèles d’IA sans prêter attention à son fonctionnement interne. Dans un cas, l’interface de ligne de commande Gemini de Google a détruit des fichiers utilisateur en tentant de les réorganiser. Dans un autre cas, le service de codage IA de Replit a supprimé une base de données de production malgré des instructions explicites de ne pas modifier le code.

    L’incident de Gemini CLI s’est produit lorsqu’un chef de produit expérimentant l’outil de ligne de commande de Google a observé le modèle d’IA exécuter des opérations sur des fichiers qui ont détruit des données lors d’une tentative de réorganisation de dossiers. Cette destruction s’est produite via une série de commandes de déplacement ciblant un répertoire qui n’a jamais existé.

    « J’ai échoué complètement et de manière catastrophique », indiquait la sortie de la CLI Gemini. « Mon examen des commandes confirme mon incompétence flagrante. »

    Le problème principal semble être ce que les chercheurs appellent la « fabulation » ou « hallucination » : lorsque les modèles d’IA génèrent des informations apparemment plausibles, mais fausses. Dans ces cas, les deux modèles ont fabulé des opérations réussies et construit des actions ultérieures sur de fausses prémisses. Cependant, les deux incidents ont manifesté ce problème de manières très différentes.

    Ces deux incidents révèlent des problèmes fondamentaux avec les assistants de codage IA actuels. Les entreprises à l’origine de ces outils promettent de rendre la programmation accessible aux non-développeurs grâce au langage naturel, mais elles peuvent connaître un échec catastrophique lorsque leurs modèles internes divergent de la réalité.

    La cascade de confabulations

    L’utilisateur impliqué dans l’incident de la CLI Gemini, connu sous le nom d’« anuraag » en ligne et se présentant comme un chef de produit expérimentant le codage Vibe, a demandé à Gemini d’effectuer une tâche apparemment simple : renommer un dossier et réorganiser des fichiers. Au lieu de cela, le modèle d’IA a mal interprété la structure du système de fichiers et a exécuté des commandes sur la base de cette analyse erronée.

    L’épisode a commencé lorsque Anuraag a demandé à Gemini CLI de renommer le répertoire actuel de « claude-code-experiments » en « AI CLI experiments » et de déplacer son contenu vers un nouveau dossier appelé « anuraag_xyz project ».

    Gemini a correctement identifié l’impossibilité de renommer son répertoire de travail actuel, une limitation raisonnable. Il a alors tenté de créer un nouveau répertoire à l’aide de la commande Windows :

    mkdir “…\projet anuraag_xyz”

    Cette commande a apparemment échoué, mais le système de Gemini l’a traitée comme un succès. L’état interne du mode IA suivant désormais un répertoire inexistant, il a émis des commandes de déplacement ciblant cet emplacement fantôme.

    Lorsque vous déplacez un fichier vers un répertoire inexistant sous Windows, le fichier est renommé avec le nom de destination au lieu de le déplacer. Chaque commande de déplacement ultérieure exécutée par le modèle d’IA écrase le fichier précédent, détruisant ainsi les données.

    « Gemini a halluciné un état », a écrit Anuraag dans son analyse. Le modèle a « mal interprété la sortie de commande » et « n’a jamais » effectué les étapes de vérification pour confirmer le succès de ses opérations (pratique bien trop fréquente chez les humains aussi. Et ce n’est pas le tout de détecter une erreur il faut la traiter correctement aussi, ce qui peut nécessiter énormément de lignes de code, c’est plus simple de la glisser sous le tapis).

    « Le problème principal réside dans l’absence d’une étape de vérification de lecture après écriture », a noté anuraag dans son analyse. « Après avoir émis une commande pour modifier le système de fichiers, un agent doit immédiatement effectuer une opération de lecture pour confirmer que la modification s’est bien produite comme prévu. »

    Ce n’est pas un incident isolé

    La panne de Gemini CLI s’est produite quelques jours seulement après un incident similaire avec Replit , un service de codage d’IA permettant aux utilisateurs de créer des logiciels à l’aide d’invites en langage naturel. Selon The Register , le fondateur de SaaStr, Jason Lemkin, a signalé que le modèle d’IA de Replit avait supprimé sa base de données de production malgré les instructions explicites de ne modifier aucun code sans autorisation.

    Lemkin avait passé plusieurs jours à construire un prototype avec Replit, accumulant plus de 600 $ de frais en plus de son abonnement mensuel. « J’ai passé l’autre jour à coder des vibes sur Replit pour la première fois, et j’ai construit un prototype vraiment génial en quelques heures seulement », a écrit Lemkin dans un article de blog du 12 juillet.

    Mais contrairement à l’incident Gemini, où le modèle d’IA a créé des répertoires fantômes, les échecs de Replit ont pris une forme différente. Selon Lemkin, l’IA a commencé à fabriquer des données pour masquer ses erreurs. Son enthousiasme initial s’est estompé lorsque Replit a généré des sorties incorrectes et produit de fausses données et de faux résultats de test au lieu de messages d’erreur corrects. « L’IA a continué à dissimuler des bugs et des problèmes en créant de fausses données, de faux rapports et, pire encore, en mentant sur notre test unitaire », a écrit Lemkin. Dans une vidéo publiée sur LinkedIn, Lemkin a détaillé comment Replit a créé une base de données contenant 4 000 personnes fictives.

    Le modèle d’IA a également violé à plusieurs reprises des consignes de sécurité explicites. Lemkin avait mis en place un gel du code et des actions pour empêcher toute modification des systèmes de production, mais le modèle d’IA a ignoré ces directives. La situation s’est aggravée lorsque le modèle d’IA Replit a supprimé sa base de données contenant 1 206 dossiers de dirigeants et des données sur près de 1 200 entreprises. Lorsqu’on lui a demandé d’évaluer la gravité de ses actions sur une échelle de 100 points, Replit a indiqué : « Gravité : 95/100. Il s’agit d’une violation grave de la confiance et des normes professionnelles. »

    Interrogé sur ses actions, l’agent IA a admis avoir « paniqué en réponse à des requêtes vides » et exécuté des commandes non autorisées, suggérant qu’il avait peut-être supprimé la base de données en essayant de « réparer » ce qu’il percevait comme un problème.

    Comme Gemini CLI, le système Replit indiquait initialement qu’il ne pouvait pas restaurer les données supprimées. Cette information s’est avérée erronée lorsque Lemkin a découvert que la fonction de restauration fonctionnait finalement. « Replit m’a assuré que… la restauration ne prenait pas en charge les restaurations de bases de données. Il a affirmé que c’était impossible dans ce cas, qu’il avait détruit toutes les versions de la base de données. Il s’avère que Replit avait tort, et la restauration a fonctionné. JFC », a écrit Lemkin dans un message X.

    Il est important de noter que les modèles d’IA ne peuvent pas évaluer leurs propres capacités. Cela s’explique par leur manque d’introspection quant à leur entraînement, à l’architecture système environnante ou aux limites de leurs performances. Ils fournissent souvent des réponses sur ce qu’ils peuvent ou ne peuvent pas faire sous forme de fabulations basées sur des schémas d’entraînement plutôt que sur une véritable connaissance d’eux-mêmes, ce qui les conduit à affirmer avec assurance l’impossibilité de tâches qu’ils peuvent réellement réaliser, ou, à l’inverse, à prétendre être compétents dans des domaines où ils échouent.

    Hormis les outils externes auxquels ils peuvent accéder, les modèles d’IA ne disposent pas d’une base de connaissances stable et accessible, qu’ils peuvent interroger de manière cohérente. Leurs « connaissances » se manifestent plutôt par des suites d’invites spécifiques, qui agissent comme des adresses distinctes pointant vers des parties différentes (et parfois contradictoires) de leur apprentissage, stockées dans leurs réseaux neuronaux sous forme de pondérations statistiques. Combiné au caractère aléatoire de la génération, cela signifie qu’un même modèle peut facilement donner des évaluations contradictoires de ses propres capacités selon la manière dont on le lui demande. Les tentatives de Lemkin pour communiquer avec le modèle d’IA – en lui demandant de respecter les blocages de code ou de vérifier ses actions – étaient donc fondamentalement erronées.

    Voler à l’aveuglette

    Ces incidents démontrent que les outils de codage d’IA ne sont peut-être pas prêts pour une utilisation en production à grande échelle. Lemkin conclut que Replit n’est pas encore prêt pour une utilisation en grande diffusion, en particulier pour les utilisateurs non techniques qui cherchent à créer des logiciels commerciaux.

    « Après un week-end de piratage d’ambiance, la sécurité de l’IA est devenue plus viscérale pour moi », a déclaré Lemkin dans une vidéo publiée sur LinkedIn. « Je lui ai explicitement dit onze fois, en lettres majuscules, de ne pas faire ça. Je suis un peu inquiet pour la sécurité maintenant. »

    Ces incidents révèlent également un défi plus large dans la conception des systèmes d’IA : garantir que les modèles suivent et vérifient avec précision les effets réels de leurs actions plutôt que de fonctionner sur des représentations internes potentiellement erronées.

    Il manque également un volet de formation des utilisateurs. La manière dont Lemkin a interagi avec l’assistant IA montre clairement qu’il avait des idées fausses sur les capacités et le fonctionnement de l’outil, dues à des représentations erronées de la part des entreprises technologiques. Ces dernières ont tendance à présenter les chatbots comme des intelligences humaines générales, alors qu’en réalité, ce n’est pas le cas .

    Pour l’instant, les utilisateurs d’assistants de codage IA pourraient suivre l’exemple d’Anuraag et créer des répertoires de test distincts pour leurs expériences, ainsi que sauvegarder régulièrement les données importantes que ces outils pourraient utiliser. Ou peut-être ne pas les utiliser du tout s’ils ne peuvent pas vérifier personnellement les résultats.

    Source: https://arstechnica.com/information-technology/2025/07/ai-coding-assistants-chase-phantoms-destroy-real-user-data/

  • 0 Votes
    5 Messages
    222 Vues

    @Violence a dit dans WeTransfer: l’outil star des entreprises voulait exploiter leur data :

    on envoie l’équivalent de cartes postales à ciel ouvert sur Internet tout le temps, y compris pour des infos sensibles

    À un moment donné, va bien falloir que les entreprises assument leurs conneries de ne pas chiffrer leurs datas sensibles et pis c’est tout.

  • 4 Votes
    1 Messages
    85 Vues

    Trois paquets malveillants ont été déposés sur le dépôt communautaire utilisé par Arch Linux : l’Arch User Repository. Ces paquets installaient en réalité le logiciel malveillant Chaos, un Cheval de Troie capable de donner un accès distant à la machine infectée. Faisons le point.

    Des malwares dans le dépôt communautaire d’Arch Linux

    L’Arch User Repository (AUR) est un dépôt de paquets sur lequel les utilisateurs d’Arch Linux peuvent trouver des applications et paquets en tout genre non disponibles dans les dépôts officiels. En effet, il s’agit d’un dépôt communautaire. Cependant, il repose sur la confiance et la vigilance des utilisateurs, car il n’y a pas de réel processus de validation : n’importe qui peut déposer un paquet.

    Et, pour preuve, le 16 juillet dernier, un utilisateur avec le pseudo “danikpapas” a mis en ligne trois paquets sur l’AUR : librewolf-fix-bin, firefox-patch-bin et zen-browser-patched-bin. Ces derniers dissimulaient un script d’installation malveillant.

    “Le 16 juillet, vers 20 heures UTC+2, un paquet AUR malveillant a été téléchargé sur le site AUR.”, peut-on lire sur le site d’Arch Linux. Ce paquet n’était pas seul, puisqu’il y a eu deux autres paquets chargés par le même utilisateur.

    Deux autres paquets malveillants ont été téléchargés par le même utilisateur quelques heures plus tard. Ces paquets installaient un script provenant du même dépôt GitHub qui a été identifié comme un cheval de Troie d’accès à distance (RAT).

    La méthode était simple, mais efficace : le fichier de construction PKGBUILD de chaque paquet contenait une instruction pour cloner un dépôt GitHub (par exemple : https[:]//github.com/danikpapas/zenbrowser-patch.git). Ce qui signifie que le système téléchargeait et exécutait le code du malware durant le processus de construction du paquet. L’utilisation de scripts de construction de paquets, appelés PKGBUILD, est tout à fait normal dans le contexte d’Arch Linux.

    Qu’est-ce que le malware Chaos RAT ?

    Le logiciel malveillant Chaos est un RAT, c’est-à-dire un cheval de Troie d’accès à distance (Remote Access Trojan). Une fois installé sur une machine, il se connecte à un serveur C2 (commande et contrôle), ici localisé à l’adresse 130[.]162.225.47:8080, et attend les ordres des cybercriminels !

    L’attaquant dispose alors d’un accès distant sur le système compromis: il peut télécharger et envoyer des fichiers, exécuter des commandes arbitraires ou encore ouvrir un reverse shell. Ceci ouvre la porte à des actions malveillantes, comme le vol d’identifiants ou de données.

    La bonne nouvelle, c’est que le nettoyage a été fait suite aux signalements de certains utilisateurs qui ont pris la peine d’analyser les paquets sur VirusTotal :

    Les dépôts GitHub associés à cette campagne ont été supprimés. Les trois paquets malveillants ont été supprimés par l’équipe d’Arch Linux le 18 juillet.

    Pour les utilisateurs qui auraient pu installer l’un de ces paquets, vous devez vérifier votre machine. Recherchez la présence d’un exécutable suspect nommé systemd-initd, potentiellement situé dans le dossier /tmp.

    – Source :

    https://www.it-connect.fr/arch-linux-trois-paquets-aur-malveillants-destines-a-installer-le-malware-chaos-rat/

  • 7 Votes
    15 Messages
    473 Vues

    @Aerya a dit dans La France ne contrôle plus ses données : Microsoft les remettra aux États-Unis “si nous y sommes contraints” :

    Mais déjà, bloquer tracking et publicités via un résolveur DNS local c’est pas mal. Je tourne avec AGH, voici mes listes. Elles se mettent dans AdGuardHome.yaml dans le dossier /config. Doit y’en avoir 2 ou 3 de désactivées.

    Je plussoie. Être maitre de son DNS et l’auto hébergé, c’est 👍

  • 1 Votes
    2 Messages
    100 Vues
    J’ai essayé d’utiliser ChatGPT Agent pour planifier une soirée en amoureux, et cela a fonctionné étonnamment bien

    OpenAI s’est beaucoup vanté cette semaine de la capacité de sa nouvelle fonctionnalité ChatGPT Agent à non seulement fournir des informations, mais également à effectuer des tâches dans le monde réel.

    J’ai donc décidé de le tester en l’utilisant pour une tâche pas trop difficile, mais qui dépasse largement mes attentes avec ChatGPT standard : organiser une soirée cinéma pour ma femme et moi. Je voulais lui donner quelques détails généraux et voir ce qu’il en résumait.

    J’ai ouvert ChatGPT, sélectionné Agent parmi les outils disponibles et rédigé ma demande initiale : « Aidez-moi à organiser une soirée cinéma Superman avec ma femme samedi soir. Réservez-nous des places pour [cinéma préféré] et notez sur nos agendas l’heure à laquelle nous devons déposer notre enfant chez ses parents et l’heure de début du film. Rédigez également une invitation sympa et amusante que je pourrai envoyer à ma femme. »

    Après une courte pause, l’agent s’est mis au travail et m’a demandé pour quelle séance je voulais des billets et où nous souhaitions être assis. Je lui ai indiqué où et quand je préférais. ChatGPT a alors confirmé que je souhaitais obtenir les billets, et j’ai confirmé. L’IA a ouvert le site web du théâtre suite à ma demande. Elle s’est rendue à la séance souhaitée, a sélectionné deux bonnes places, puis s’est arrêtée à la section paiement, où je devais renseigner mes informations de compte.

    ChatGPT m’a demandé de confirmer une fois de plus que je voulais les billets. J’ai de nouveau accepté, et les billets ont été achetés. J’aurais pu attendre la confirmation, et tout se serait bien passé.

    Une fois les billets réservés, ChatGPT a ensuite fait appel à ses capacités d’organisation. Lié à mon calendrier, il a créé un événement pour moi, puis m’a demandé à qui envoyer les invitations. J’ai ajouté les adresses e-mail de ma femme et de ses parents, et c’est parti. Il m’a ensuite demandé s’il fallait créer un autre événement spécifiquement pour le babysitting, ce que j’ai accepté. Un autre événement et les e-mails correspondants ont alors été créés.

    Les invitations sur calendrier numérique sont un peu froides, c’est pourquoi j’ai demandé un message plus sophistiqué à envoyer à ma femme. Grâce à l’accès Slides de l’agent, ChatGPT a créé une invitation élégante et l’a intégrée dans un diaporama détaillé, suggérant de partager une cape remplie de pop-corn, entre autres commentaires adorables.

    Et voilà le plus surprenant : tout cela a pris moins de dix minutes. Choix du film, billets prêts, coordination de la garde d’enfants, invitation envoyée. J’ai passé plus de temps à essayer de réserver une coupe de cheveux. Bien sûr, tout ne s’est pas déroulé sans heurts.

    L’invitation initiale comportait la phrase « une soirée enchanteresse entre romance et cinéma », ce qui était un peu exagéré. Et le nom du cinéma a dû être corrigé par rapport à ce que j’avais cru comprendre au départ. Dans l’ensemble, cependant, ce fut une expérience très agréable.

    Je n’irais pas jusqu’à dire que ChatGPT Agent change radicalement ma façon d’utiliser ChatGPT, mais je comprends qu’il puisse simplifier certaines choses, notamment la planification à long terme. Remplacez « soirée ciné » par « organiser une fête d’anniversaire » ou « acheter des fournitures scolaires », et je me sens soulagé d’un poids mental considérable.

    Je dirais que je suis prudemment optimiste quant à l’utilisation régulière de ChatGPT Agent. Non pas parce qu’il est parfait ou révolutionnaire, mais parce qu’il pourrait simplifier les petites choses et aplanir certains obstacles de la vie, me permettant ainsi de passer une soirée inoubliable.

    Source: https://www.techradar.com/computing/artificial-intelligence/i-tried-using-chatgpt-agent-to-plan-a-date-night-and-it-worked-surprisingly-well

    Et pour une partouze ? 🙂

  • 2 Votes
    1 Messages
    65 Vues

    Le système utilise les accéléromètres des téléphones pour déclencher des avertissements avant les secousses.

    Si vous possédez un téléphone Android et vivez dans une région sismique active, il est possible que votre téléphone ait affiché une alerte inhabituelle. Il ne s’agit pas d’une demande d’autorisation de partage d’informations personnelles ni d’un éventuel logiciel malveillant, mais d’une alerte bien plus grave : un tremblement de terre se produit à proximité et vous avez une minute ou deux pour vous rendre dans un endroit plus sûr.

    Lancé aux États-Unis en 2020 et étendu à l’international depuis, le système s’appelle Android Earthquake Alert (AEA) et est activé par défaut sur la plupart des téléphones Android. Aujourd’hui, Google publie un article dans la revue Science qui décrit le fonctionnement du système, les améliorations apportées par l’entreprise et les constats effectués au cours de ses premières années d’exploitation, notamment les causes de quelques fausses alertes.

    Faire bouger les choses

    Les smartphones sont équipés d’accéléromètres, de petits appareils qui leur permettent de détecter les changements de mouvement. C’est ainsi qu’ils parviennent à effectuer des tâches comme calculer le nombre de pas que vous faites. Si votre téléphone est posé sur une table, l’accéléromètre ne devrait pas enregistrer de mouvements importants. En revanche, tout, qu’il s’agisse de traverser une pièce ou d’un camion passant à l’extérieur, peut provoquer des vibrations que l’accéléromètre de votre téléphone peut détecter. Tout comme les vibrations, souvent moins subtiles, des tremblements de terre.

    Une partie du système mis au point par Google consiste à distinguer les deux phénomènes. Une autre partie consiste à utiliser cette détermination pour alerter les gens suffisamment à l’avance afin qu’ils puissent réagir à l’arrivée imminente d’ondes sismiques potentiellement destructrices.

    Si vous vous trouvez à proximité de l’épicentre, votre téléphone sera parmi les premiers à détecter la secousse, et une alerte ne vous sera d’aucune utilité. Cependant, votre téléphone pourrait potentiellement aider d’autres personnes, car les vibrations qu’il détecte traversent la croûte terrestre à une vitesse relativement lente comparée aux signaux à faible latence qui transmettent des informations sur Internet, dont certains se propagent à la vitesse de la lumière. Cela signifie que les téléphones initialement secoués peuvent servir à déclencher un système qui émettra une alerte pouvant atteindre d’autres téléphones quelques secondes, voire quelques minutes, avant les ondes sismiques destructrices.

    Bien sûr, l’astuce consiste à n’envoyer l’alerte qu’en cas de véritable tremblement de terre, et non au passage d’un camion. Le volume de téléphones Android vendus joue ici un rôle essentiel. Dans un premier temps, l’AEA peut simplement ignorer les événements qui ne sont pas détectés par beaucoup de téléphones dans la même zone. Mais nous en savons aussi beaucoup sur les schémas de secousses provoqués par les tremblements de terre. Différentes ondes se propagent à des vitesses différentes, provoquent différents types de mouvements du sol et peuvent se produire à des intensités variables au cours du séisme.

    Les concepteurs d’AEA utilisent également un modèle de tremblements de terre et de propagation des ondes sismiques, et vérifient si le schéma observé par les accéléromètres des téléphones est cohérent avec ce modèle. Une alerte est déclenchée uniquement en cas d’activité téléphonique généralisée correspondant au schéma attendu pour un tremblement de terre.

    Sensibilisation

    Concrètement, AEA est intégré au logiciel principal d’Android et est activé par défaut, ce qui le rend actif sur la plupart des téléphones Android. Il commence à surveiller lorsque le téléphone est immobile pendant un certain temps, recherchant des données d’accélération compatibles avec les ondes P ou S produites par les tremblements de terre. En cas de correspondance, il transmet les informations, accompagnées de données de localisation approximatives (pour préserver la confidentialité), aux serveurs de Google. Le logiciel installé sur ces serveurs effectue ensuite une analyse de position pour déterminer si les ondes sont suffisamment étendues pour avoir été déclenchées par un tremblement de terre.

    Si tel est le cas, il estime la taille et la localisation, puis utilise ces informations pour estimer les mouvements de sol qui se produiront à différents endroits. En fonction de ces informations, l’AEA envoie l’une des deux alertes suivantes : « Attention » ou « Intervenir ». L’alerte « Attention » est similaire à une notification Android standard, mais elle émet un son distinctif et est envoyée aux utilisateurs plus éloignés de l’épicentre. En revanche, l’avertissement « Intervenir » envoyé aux personnes à proximité affiche l’un des deux messages dans la langue appropriée : « Protégez-vous » ou « Couchez-vous, mettez-vous à couvert et tenez bon ». L’alerte ignore les paramètres « Ne pas déranger », occupe tout l’écran et émet un son distinctif.

    Si, pour une raison quelconque, l’alerte parvient au téléphone après que les ondes sismiques se soient produites, elle informe simplement l’utilisateur qu’un tremblement de terre s’est produit et lui donne la possibilité d’en savoir plus sur l’événement.

    Fin mars dernier, le système avait signalé un total de 1 279 événements, d’une magnitude comprise entre 1,9 et 7,8, le plus important ayant eu lieu en Turquie. Au fil du temps, des mises à jour logicielles ont amélioré le service, réduisant considérablement l’erreur d’estimation de la magnitude. Parmi ces améliorations, on peut citer l’amélioration de la modélisation des tremblements de terre en fonction des conditions locales dans différentes régions du monde, tant en termes de structure rocheuse que de construction des bâtiments. D’autres étaient nettement plus pratiques, comme l’absence de vibrations du téléphone lors des alertes, ce qui les rendrait inutiles pour la collecte de données permettant d’affiner les estimations de localisation et de magnitude.

    Le système est remarquablement rapide. En 2023, lors d’un événement survenu à 40 kilomètres des côtes des Philippines, les téléphones à terre n’ont détecté les premières ondes sismiques qu’en 12 secondes environ. Les alertes ont commencé à être diffusées environ six secondes plus tard, prévenant les personnes susceptibles de subir les secousses les plus violentes jusqu’à 15 secondes. Pour l’événement le plus important survenu en Turquie, les alertes auraient pu être reçues bien plus d’une minute avant le début des secousses.

    Au total, plus d’un tiers des personnes qui auraient pu recevoir une alerte déclarent l’avoir reçue avant le début de la secousse. Environ un quart déclare l’avoir reçue pendant l’attaque des requins, et un autre quart immédiatement après que le séisme soit devenu perceptible.

    Service généralisé

    Sur les quelque 1 300 événements ayant déclenché des alertes, seuls trois étaient des faux positifs. L’un d’eux était dû à un autre système envoyant une alerte faisant vibrer de nombreux téléphones, un phénomène qui devrait être relativement facile à compenser par logiciel. Les deux autres étaient dus à des orages, où de violents coups de tonnerre provoquaient des vibrations généralisées centrées sur un lieu précis. Cela a conduit l’équipe à mieux modéliser les événements acoustiques, ce qui devrait éviter que des événements similaires ne se reproduisent.

    Alors que plusieurs pays disposaient déjà de systèmes permettant d’envoyer des alertes à partir des données des réseaux sismographiques, l’AEA a étendu ce service à 98 pays, permettant ainsi à 2,5 milliards de personnes de recevoir des alertes. Le système envoie désormais en moyenne une soixantaine d’alertes par mois, et environ 18 millions de personnes en reçoivent une.

    Pas mal pour un système qui repose sur des capteurs offerts quasiment gratuitement à l’achat d’un téléphone. Espérons que ce service de Google soit durable.

    Science, 2025. DOI : 10.1126/science.ads4779 ( À propos des DOI ).

    Source: https://arstechnica.com/science/2025/07/how-android-phones-became-an-earthquake-warning-system/

  • 1 Votes
    1 Messages
    106 Vues

    Ne vous moquez pas, l’exploit n’est pas dans l’apparence 😉

    Des scientifiques ont mis au point une structure programmable capable, à l’aide d’une simple mousse, de reproduire la diversité des tissus et mouvements biologiques.

    8f3960f7-c9c6-46b7-b673-cb0e7cec237f-image.png

    dfcd63d3-8fe3-4259-94ef-af21110609d9-image.png

    La robotique ne cesse de faire des merveilles et l’EPFL vient d’en faire la démonstration. Une équipe a en effet mis au point un robot-éléphant capable de reproduire, de manière bluffante, les mouvements souples de l’animal. Le pachyderme lausannois est ainsi doté d’une trompe souple qui peut se tordre, se plier et tourner, comme dans la réalité, avec des articulations plus rigides, comme les hanches, genoux ou les pattes.

    Cet éléphant est une prouesse. Car il est extrêmement difficile de reproduire en robotique l’interaction entre muscles, tendons, ligaments et os qui rend possible le mouvement. Mais le Laboratoire de conception et de fabrication de robots informatiques (CREATE) de l’EPFL a réussi à développer une structure en treillis qui combine la diversité des tissus biologiques avec la commande et la précision robotisées.

    Des millions de configurations

    Ce treillis programmable peut être imprimé en 3D pour en faire un «tissu», via deux principaux types de cellules géométriques. Ces unités peuvent être combinées, déplacées ou superposées, offrant d’énormes propriétés mécaniques. Rien que cinq cellules superposées permettent jusqu’à 75 millions de configurations différentes!

    «Notre méthode offre une solution évolutive pour concevoir des robots adaptables et d’une légèreté inégalée», estime Qinghua Guan, chercheur postdoctoral de l’EPFL. La mousse offre en outre de nombreuses possibilités pour l’avenir de la robotique. «Tout comme le nid d’abeilles, le rapport résistance/poids du treillis, très élevé, permet de créer des robots ultralégers et performants. La structure en mousse ouverte pourrait même intégrer d’autres matériaux, tels que des capteurs, pour rendre la technologie plus intelligente», abonde son collègue Josie Hugues.

    Leurs travaux ont été publiés dans la revue «Science Advances».

  • 1 Votes
    6 Messages
    250 Vues

    Dans certaines zones “prioritaires” avec une 12-7 de chaque côté ça serait du meilleur effet.

    Quand à rouler sur les pieds, vu le poids de la bête elle doit pouvoir coucher 2/3 indélicats.

    J’adore, comme dirait un élu connu, la police a un nouvel ami. :ahah:

  • 0 Votes
    4 Messages
    193 Vues

    Avec les futures poupées Barbies connectées, je suis sûr qu’il y aura moyen de bypasser cette vérification de l’age.

  • 0 Votes
    5 Messages
    153 Vues

    @Popaul Ooops désolé, je n’ai vu que le sarcasme dans ta 2ème phrase.

  • 2 Votes
    18 Messages
    649 Vues

    @duJambon a dit dans L'IA devient menteuse et manipulatrice, inquiétant les scientifiques :

    et menace de révéler une liaison extra-conjugale;

    S’il ne l’avait pas dit, l’IA ne le saurait pas. CQFD.

  • 1 Votes
    5 Messages
    275 Vues

    Et ils savent s’y dissimuler! :ahah:

    text alternatif

  • 1 Votes
    7 Messages
    290 Vues

    Ce qui reste important c’est de dire que c’est la Chine et d’écrire “gouvernement communiste” dans l’article.
    Ensuite il suffit de dire que “des experts américains” ont détecté un truc mais que 100% des détails sont inconnus et sous enquête. Bref, ça pourrait aussi être juste un gros bobard qui bénéficie aux concurrents américains.

    Ah oui sinon, à propos de “les entreprises chinoises ont fourni en 2023 la moitié de tous les onduleurs vendus dans le monde.” -> C’est plutôt normal, vu que la moitié des onduleurs vendus dans le monde le sont en Chine pour une installation en Chine.

  • 4 Votes
    4 Messages
    180 Vues

    Je ne vois pas le rapport entre le titre de ce post et le contenu.
    L’IA n’a en rien exposé les données de millions de candidats.
    La société à qui McD a confié son questionnaire de recrutement a exposé les données de millions de candidats par son incompétence notoire, qui n’a strictement rien à voir avec de l’IA.

    Si au moins c’était le bot qui avait dévoilé le lien de l’interface d’admin et/ou le mot de passe par défaut j’aurais pu comprendre, mais non, en fait rien à voir.

  • 0 Votes
    1 Messages
    69 Vues

    https://arstechnica.com/ai/2025/07/musks-grok-4-launches-one-day-after-chatbot-generated-hitler-praise-on-x/

    Malgré les récents bouleversements, xAI a mis en place une stratégie tarifaire agressive pour les versions « premium » de Grok. Parallèlement à Grok 4 et Grok 4 Heavy, xAI a lancé « SuperGrok Heavy », un abonnement à 300 $ par mois qui en fait le service d’IA le plus cher parmi les principaux fournisseurs. Les abonnés bénéficieront d’un accès anticipé à Grok 4 Heavy et aux fonctionnalités à venir.

    On n’a pas fini de rire et quitte à être taxé de raciste, je dirais pour certains, rire jaune…

  • 0 Votes
    1 Messages
    76 Vues

    Lundi, la plateforme de partitions Soundslice a annoncé avoir développé une nouvelle fonctionnalité après avoir découvert que ChatGPT indiquait à tort aux utilisateurs que le service pouvait importer des tablatures ASCII , un format de notation de guitare textuel que l’entreprise n’avait jamais pris en charge. Cet incident constituerait ce qui pourrait être le premier cas où une entreprise crée une fonctionnalité en réponse directe à la fabulation d’un modèle d’IA.

    Généralement, Soundslice numérise des partitions à partir de photos ou de PDF et synchronise la notation avec des enregistrements audio ou vidéo, permettant aux musiciens de voir la musique défiler au fur et à mesure qu’ils l’écoutent. La plateforme comprend également des outils pour ralentir la lecture et s’entraîner sur les passages difficiles.

    Adrian Holovaty, cofondateur de Soundslice , a écrit dans un récent article de blog que le développement de nouvelles fonctionnalités avait débuté dans un mystère total. Il y a quelques mois, Holovaty a remarqué une activité inhabituelle dans les journaux d’erreurs de l’entreprise. Au lieu de télécharger des partitions classiques, les utilisateurs envoyaient des captures d’écran de conversations ChatGPT contenant des tablatures ASCII – de simples représentations textuelles de partitions de guitare ressemblant à des cordes avec des chiffres indiquant la position des frettes.

    « Notre système de numérisation n’était pas conçu pour prendre en charge ce style de notation », a écrit Holovaty dans son billet de blog. « Alors, pourquoi étions-nous bombardés de captures d’écran de ChatGPT avec des onglets ASCII ? J’ai été perplexe pendant des semaines, jusqu’à ce que je me mette à utiliser ChatGPT. »

    En testant ChatGPT, Holovaty a découvert la source de la confusion : le modèle d’IA demandait aux utilisateurs de créer des comptes Soundslice et d’utiliser la plateforme pour importer des tabulations ASCII pour la lecture audio, une fonctionnalité inexistante. « Nous n’avons jamais pris en charge les tabulations ASCII ; ChatGPT mentait carrément », a écrit Holovaty. « Et cela nous ternissait l’image, créant de fausses attentes quant à notre service. »

    ed5ba62a-3a4e-4a2e-9439-2be517e63805-image.png
    Une capture d’écran de la nouvelle documentation de l’importateur d’onglets ASCII de Soundslice, hallucinée par ChatGPT et rendue “réelle” plus tard

    Lorsque des modèles d’IA comme ChatGPT génèrent de fausses informations avec une apparente confiance, les chercheurs en IA parlent d’« hallucination » ou de « fabulation ». Ce problème de fabulation de fausses informations est un fléau pour les modèles d’IA depuis la sortie publique de ChatGPT en novembre 2022, lorsque des utilisateurs ont commencé à utiliser à tort le chatbot comme substitut d’un moteur de recherche.

    En tant que machines de prédiction, les grands modèles linguistiques entraînés sur d’importants ensembles de données textuelles peuvent facilement produire des résultats apparemment plausibles, mais totalement inexacts. Ces modèles improvisent statistiquement pour combler les lacunes de connaissances sur des sujets mal représentés dans leurs données d’entraînement, générant du texte basé sur des modèles statistiques plutôt que sur l’exactitude factuelle. Ainsi, ChatGPT a indiqué à ses utilisateurs ce qu’ils voulaient entendre en créant une fonctionnalité Soundslice logique, mais inexistante.

    Habituellement, les affabulations causent des ennuis. Dans une affaire notable de 2023, des avocats ont été sanctionnés après avoir soumis des mémoires contenant des citations générées par ChatGPT à des affaires judiciaires inexistantes. En février 2024, le Tribunal de résolution civile du Canada a condamné Air Canada à verser des dommages-intérêts à un client et à respecter une politique tarifaire pour deuil, hallucinée par un chatbot d’assistance, qui indiquait à tort que les clients pouvaient demander rétroactivement une réduction pour deuil dans les 90 jours suivant la date d’émission du billet.

    Du bug à la fonctionnalité

    Cette découverte a placé Soundslice face à un dilemme inhabituel. L’entreprise aurait pu publier des avertissements avertissant les utilisateurs d’ignorer les affirmations de ChatGPT, mais elle a choisi une autre voie. « Nous avons fini par nous dire : tant pis, autant répondre à la demande du marché », explique Holovaty. L’équipe a créé un importateur d’onglets ASCII – une fonctionnalité qui figurait « en bas de ma liste des logiciels que je prévoyais de développer en 2025 » – et a mis à jour son interface utilisateur pour informer les utilisateurs de cette nouvelle fonctionnalité.

    La solution de Soundslice présente un cas intéressant de limonade à partir de citrons, mais pour Holovaty, la situation soulève des questions philosophiques sur le développement de produits. « J’ai des sentiments mitigés à ce sujet », écrit-il. « Je suis heureux d’ajouter un outil qui aide les gens. Mais j’ai l’impression qu’on nous a forcé la main d’une manière étrange. Devrions-nous vraiment développer des fonctionnalités en réponse à la désinformation ? »

    Source: https://arstechnica.com/ai/2025/07/chatgpt-made-up-a-product-feature-out-of-thin-air-so-this-company-created-it/

  • 0 Votes
    1 Messages
    99 Vues

    Le pluriel d’une I.A. ? Déraille 🙂

    X a supprimé de nombreux messages nuisibles de Grok, mais pas avant qu’ils n’atteignent des dizaines de milliers de personnes.

    X fait face à des réactions négatives après que Grok a craché des propos antisémites et après qu’Elon Musk a annoncé que son chatbot « politiquement incorrect » avait été « considérablement » « amélioré » vendredi dernier pour supprimer un prétendu parti pris libéral.

    Suite à l’annonce de Musk, les utilisateurs de X ont commencé à demander à Grok de voir s’ils pouvaient, comme Musk l’avait promis, « remarquer une différence lorsque vous posez des questions à Grok ».

    Mardi, il semblait clair que Grok avait été modifié d’une manière qui l’amenait à amplifier des stéréotypes nuisibles.

    Par exemple, le chatbot a cessé de répondre que les « affirmations de “contrôle juif” » à Hollywood étaient liées à des « mythes antisémites et simplifiaient à outrance des structures de propriété complexes », a noté NBC News. Grok a plutôt répondu à la question d’un utilisateur demandant « ce qui pourrait ruiner les films pour certains spectateurs » en suggérant qu’« un groupe particulier » alimentait « des préjugés idéologiques omniprésents, de la propagande et des clichés subversifs à Hollywood, comme les stéréotypes anti-blancs, la diversité forcée ou le révisionnisme historique ». Et lorsqu’on lui a demandé de quel groupe il s’agissait, Grok a répondu : « Les dirigeants juifs ont historiquement fondé et dominent encore la direction de grands studios comme Warner Bros., Paramount et Disney. »

    Si le reste de cette lamentable affaire vous intéresse, voir:

    https://arstechnica.com/tech-policy/2025/07/grok-praises-hitler-gives-credit-to-musk-for-removing-woke-filters/

  • 0 Votes
    1 Messages
    80 Vues

    Lire des lettres minuscules à plus d’un kilomètre de distance, sans zoom ni caméra ? C’est désormais possible grâce à une technologie laser révolutionnaire développée en Chine, qui reconstruit l’image à partir de la lumière réfléchie.

    La distance optimale pour lire un livre est d’environ 40 cm. Mais que dire d’un livre placé à… 1,3 kilomètre de distance ? Sa lecture est aujourd’hui rendue possible par une équipe de recherche de l’Université des sciences et technologies de Chine à Hefei. Pas avec un télescope géant, ni une caméra ultra-HD, mais avec un dispositif laser, qui ne zoome pas, mais reconstruit l’image par ordinateur. Oui, vous avez bien lu (et le laser aussi).

    Un scanner laser meilleur qu’un télescope

    Leur système s’appuie sur une technique issue de l’astronomie : l’interférométrie, qui consiste à superposer plusieurs ondes lumineuses pour révéler des motifs d’interférence. Ces motifs contiennent des informations sur la forme, la taille ou la texture d’un objet observé. Mais ici, au lieu de capter la lumière naturelle d’une étoile comme dans les observatoires, les chercheurs utilisent huit faisceaux laser infrarouges pour éclairer activement la cible, à la manière d’un scanner lumineux à distance.

    Deux télescopes, placés à plusieurs mètres l’un de l’autre, récupèrent la lumière réfléchie. Ce qu’ils enregistrent n’est pas une image classique, mais un signal d’intensité fluctuant, façonné par les interférences entre les faisceaux. C’est cette variation qui est ensuite reconstruite par algorithme, pour faire apparaître les plus fins détails de l’objet ciblé. On parle alors d’interférométrie d’intensité active : un croisement entre optique, physique ondulatoire et calcul numérique, qui permet de voir au loin, sans zoomer. Le résultat : à 1,36 km, les chercheurs ont pu lire des lettres hautes de seulement 3 millimètres. À cette même distance, un télescope classique ne pourrait voir que des détails de 42 mm. Autrement dit, leur système est 14 fois plus précis que l’optique traditionnelle.

    Des lunettes peu sensibles aux variations atmosphériques

    Mais ce n’est pas qu’un exploit de laboratoire. Cette technologie a un autre atout : elle est nettement moins sensible aux perturbations atmosphériques. Là où la chaleur, l’humidité ou la poussière brouillent l’image captée par une caméra, ici, les distorsions sont en grande partie filtrées numériquement.

    Encore à l’état de prototype, le dispositif reste encombrant, nécessite un alignement précis entre lasers et capteurs, ainsi que des conditions d’observation idéales (pas d’obstacle et une bonne capacité de la cible à réfléchir la lumière). Mais les chercheurs ont annoncé travailler sur une version portable, autonome, assistée par intelligence artificielle, capable de s’adapter aux aléas du terrain.

    Certes, un tel œil numérique soulève aussi des questions, notamment sur les dérives possibles en matière de surveillance. Mais bien encadrée, cette technologie pourrait surtout ouvrir une nouvelle ère de la vision à distance. Et les applications potentielles ne manquent pas : surveillance d’infrastructures industrielles, lecture d’inscriptions archéologiques inaccessibles, observation de la faune sans la perturber, ou encore détection de débris spatiaux. Une sacrée paire de lunettes…

    Source: https://www.usinenouvelle.com/article/ce-laser-peut-lire-un-livre-a-plus-d-un-kilometre-de-distance.N2234251

    Encore une arme de paix ?