Actualités High-Tech

1.4k Sujets 7.4k Messages
  • 2 Votes
    4 Messages
    96 Vues

    Est ce qu’il va rester un mail qui n’a pas encore fuité 🤔

  • 1 Votes
    1 Messages
    32 Vues

    Le référentiel général de l’écoconception des produits est désormais en ligne. Ce document, très attendu, constitue un premier jet et a la mission délicate de faire bouger les lignes. Il n’est cependant pas contraignant et ambitionne surtout, pour l’instant, la collecte des connaissances et des retours d’expérience.

    Ces dernières années, en France, plusieurs agences mettent l’accent sur la sobriété énergétique. Par extension, la sobriété numérique devient un sujet prégnant, nos usages augmentant continuellement.

    L’Arcep et l’Arcom, en lien avec l’ADEME, publient donc ce référentiel, après la consultation publique d’octobre dernier. L’objectif est clair : intégrer dès la conception des pratiques vertueuses en matière de minimisation de l’empreinte environnementale. La rédaction du document a également bénéficié du concours de la CNIL, de la DINUM et d’Inria.

    Accéder au référentiel de l’écoconception des services numériques (RGESN) Écoconception : de quoi parle-t-on ?

    Avant de plonger dans le référentiel, son périmètre et ses objectifs, il faut s’arrêter un instant sur l’écoconception proprement dite. La définition courante – et reprise par le document – est « l’intégration des caractéristiques environnementales dans la conception du produit en vue d’améliorer la performance environnementale du produit tout au long de son cycle de vie ».

    Une définition qui résume à elle seule l’objectif général du référentiel : minimiser autant que possible la consommation d’énergie et de ressources. Le Graal devient alors un service ayant nécessité le strict minimum à son fonctionnement et n’envoyant que la juste quantité d’informations.

    Tout le monde est concerné (ou presque)

    Le périmètre du référentiel est vaste. Les serveurs, terminaux, box internet, réseaux d’opérateurs, centres de données, les infrastructures logicielles et plus généralement les services numériques sont concernés. On trouve donc aussi bien des sites web que des API (Application Programming Interface), des systèmes d’exploitation, des systèmes d’intelligence artificielle (SIA), tout le SaaS (Software as a Service), les registres de blockchains, plateformes vidéo et autres services en ligne.

    En d’autres termes, tout ce qui touche de près ou de loin au numérique. Mais le référentiel ne se veut pas une bible parée à toutes les utilisations. Comme indiqué, il ne fait « pas obstacle à l’existence de documents d’écoconception complémentaires, plus exhaustifs ou spécifiques à certaines catégories de produits ou services numériques ». Par exemple, un référentiel dédié aux objets connectés (IoT).

    Le document se voulant généraliste et un « socle commun de bonnes pratiques », tous les métiers liés au numérique sont concernés. Tout ce qui touche à la gestion des projets, à la maîtrise d’ouvrage, à l’UX (user experience), aux éléments graphiques, au marketing, à l’ingénierie logicielle ou système, ou encore à la publication de contenus est visé.

    Quatre axes majeurs

    Pour parvenir à maitriser la consommation des services numériques, les trois agences proposent quatre axes principaux d’action.

    D’abord, en soulageant les terminaux. Si la fabrication de ces derniers n’entre pas dans le périmètre du texte, il est possible d’influer sur ce qu’ils utilisent. Par exemple, en veillant à ce que les services aient une consommation mesurée de ressources, pour s’assurer que des appareils anciens puissent continuer à les utiliser.

    Les autres idées comprennent l’adaptation du service au contexte (par exemple, optimiser la vidéo pour la taille de l’écran, pour éviter la 4K sur un smartphone), la possibilité d’utiliser le service sur le plus grand nombre possible d’appareils (interfaces tactiles et claviers physiques), l’usage de l’open source « _comme levier de prolongation de la durée des service_s » (et donc des terminaux et des objets connectés), ainsi que la disponibilité des mises à jour essentielles pendant toute la durée de vie des terminaux. Le référentiel souhaite également que les services puissent être utilisés sur des versions antérieures des systèmes d’exploitation et navigateurs.

    Deuxième axe, la promotion de la sobriété face à la captation de l’attention. Et c’est là un vaste chantier qui s’ouvre pour les agences, car elles souhaitent la restriction des murs de contenus infinis, du déclenchement automatique des vidéos, des notifications intempestives et autres. Le référentiel milite pour des informations claires, la fin des dark patterns (appelés « procédés manipulatoires »), des fonctions telles qu’un bouton ou un mode économie d’énergie. Il est également question de limiter la captation des données et métadonnées à des fins publicitaires.

    Troisième axe, la diminution des ressources mobilisées pendant tout le cycle de vie du service. Les pistes avancées sont nombreuses : interroger les appareils pour adapter les ressources consommées aux besoins réels, réduire le poids des contenus multimédias, limiter les requêtes aux serveurs, minimiser les ressources nécessaires aux calculs asynchrones, favoriser les hébergeurs efficients et limiter l’utilisation de technologies énergivores. La blockchain et l’apprentissage automatique (donc les IA) sont citées.

    Enfin, pour son dernier axe, le référentiel veut promouvoir la transparence, essentiellement avec une approche « par la donnée ». Par exemple, « a minima » par la publication de chiffres sur les émissions de gaz à effet de serre, la consommation énergétique, ainsi que la consommation en eau et en ressources abiotiques minéraux/métaux. Il n’est cependant pas toujours facile d’avoir des chiffres fiables sur lesquels se baser. De même, par la sélection d’un hébergeur transparent sur ses performances environnementales. Enfin, par la publication des objectifs environnementaux.

    Comment s’articule le RGESN pour les structures intéressées ?

    Puisque l’on parle d’un référentiel non contraignant, les structures intéressées par son contenu doivent le prendre en main, via un kit d’autoévaluation, en vue d’une déclaration d’écoconception. Celle-ci, si validée, permet alors à l’entreprise (ou autre) d’en faire la communication, notamment à des fins d’image publique, voire dans sa publicité.

    Le référentiel propose ainsi 78 critères (91 dans le document soumis à consultation en octobre), présentés sous forme de questions. Chacun est accompagné d’une fiche pratique pour en expliquer les tenants et aboutissants. Un indice de priorisation est également présent pour chaque critère. Il tient compte de l’impact estimé sur l’empreinte environnementale, de sa portée systémique, de ses éventuels effets indirects sur d’autres secteurs et du niveau d’ambition de sa mise en œuvre. Le référentiel, dans sa première édition finalisée, comprend trois niveaux : Prioritaire, Recommandé et Modéré.

    L’ensemble permet de calculer un score. Le calcul tient compte des niveaux, puisque chacun possède un facteur de pondération : 1,5 pour Prioritaire, 1,25 pour Recommandé et 1 pour Modéré. L’obtention du score se calcule en divisant les points obtenus par le nombre maximal de points, puis en multipliant le résultat par 100.

    Comme le reste, ces niveaux se présentent comme très généralistes. Le document précise même qu’il s’agit d’informations données « à titre indicatif », puisque la difficulté d’implémentation peut fortement varier d’un service à l’autre et selon le contexte.

    Il fallait cependant que le référentiel tienne compte de cette mise en œuvre et donne des pistes.

    Des critères nombreux et variés

    Le référentiel propose une liste de 78 critères répartis entre les trois niveaux de priorité. Chaque élément est accompagné d’un degré de difficulté : Faible, Modéré ou Fort.

    Les 30 premiers éléments sont prioritaires et sont mis en avant car les plus à même d’avoir un impact significatif sur la sobriété numérique. Certains sont directement liés à la stratégie et posent la question de l’intérêt même du service, surtout après pondération de ses impacts environnementaux. Certaines modifications sur un service peuvent en effet amener à revoir intégralement son fonctionnement, voire sa conception. Des objectifs ont-ils été fixés pour réduire ces impacts ? A-t-il été conçu avec des technologies ouvertes et interopérables ?

    Une partie des éléments a trait à la conception-même du produit et semblent « évidents », dans la mesure où ces questions interviennent presque à chaque fois : lister les profils matériels pouvant servir à accéder au service, la possible utilisation sur d’anciens modèles de terminaux ou versions d’un système d’exploitation, le type de maintenance prévue, etc. Ou, pour deux éléments classés « Fort », une garantie de démarche de réduction des impacts environnementaux imposée aux fournisseurs et la prise en compte des impacts dans la sélection des services tiers.

    Après la stratégie et les spécifications, on trouve six autres rubriques : architecture, expérience et interface utilisateur (UX et UI), contenus, frontend, backend, hébergement et algorithmie. Selon le niveau de priorité, certaines rubriques sont d’ailleurs vides. Par exemple, il n’y a rien pour le frontend en « Prioritaire », aucun critère « Modéré » pour l’algorithmie, etc.

    Certaines rubriques attirent également l’attention au regard de l’actualité. L’algorithmie, justement, parce qu’elle renvoie directement à l’IA. Les questions posées par le référentiel ne sont donc pas étonnantes : une phase d’entrainement est-elle réellement nécessaire ? Le niveau de complexité est-il minimisé et proportionnel à l’usage effectif ? La quantité de données a-t-elle été limitée au strict nécessaire ? La stratégie d’inférence est-elle optimisée ?

    L’hébergement est également un point important. Les questions posées sont classiques et portent sur la mise en place d’une démarche de réduction de l’empreinte, la gestion durable des équipements ou encore d’un PUE minimisé.

    Autre exemple, la vidéo. Le référentiel revient sur l’idée courante d’une adaptation de la qualité selon l’usage, avec mise en avant d’un mode sobriété qui enverrait par exemple du 480p sur smartphone. Les questions posées concernent aussi bien la qualité que la technologie de compression utilisée, la capacité à moduler le flux selon l’appareil visé, etc.

    Autant de fiches pratiques que de critères

    Dans le document, on remarque vite que la partie la plus intéressante se trouve dans les annexes. Ce sont elles qui contiennent les questions et surtout les fiches pratiques qui les accompagnent.

    Ces fiches sont essentielles, car elles détaillent ce qui se cache derrière chaque question : les enjeux, la mise en œuvre, les moyens de tests et de contrôle et une rubrique pour « aller plus loin ».

    Pour reprendre le cas de la vidéo, la fiche technique commence par rappeler qu’elle représentait 66 % du trafic internet en 2023 et rappelle les principaux objectifs. Les codecs AV1, VP9 et HEVC sont mis en avant pour leur efficacité, mais peuvent entrainer une consommation supplémentaire d’énergie si leur décodage n’est pas pris matériellement en charge par la puce, le CPU devant alors s’en occuper.

    Côté mise en œuvre, le codage à débit variable doit être préféré, selon la fiche, éventuellement avec un plafond maximal pour que « les contenus plus complexes restent lisibles avec une connexion internet à bas débit ». On retrouve bien sûr l’idée d’adaptation de la qualité visuelle en fonction du support, quitte à tenir compte de la présence de texte pour augmenter le début, afin d’en préserver la netteté.

    Viennent ensuite plusieurs points à valider afin de remplir le critère : le débit variable, la présence des vidéos dans une définition inférieure à 720p, l’utilisation de codecs accélérés matériellement par la majorité du parc existant et le résumé de tous les choix techniques dans la déclaration d’écoconception.

    Il s’agit bien sûr d’un exemple, mais toutes les fiches sont bâties sur le même modèle. Elles sont plus techniques et concrètes que le reste du document et en constituent d’ailleurs la vraie matière.

    Derrière l’évidente volonté, les vœux pieux ?

    Le document donne de très nombreuses pistes et propulse sous les feux de la rampe une thématique destinée à prendre de l’ampleur. Ne serait-ce que parce que le coût de l’énergie, même si actuellement en baisse, ne reviendra sans doute plus aux anciens niveaux. L’écologie fonctionne mieux quand elle signifie une baisse de la facture. Mais l’énergie n’est qu’une partie du problème, puisque la consommation des matériaux tient également une bonne place dans le référentiel.

    On en revient ainsi à l’idée première : n’utiliser que ce qui est réellement nécessaire. Et là, certaines idées peuvent devenir des vœux pieux, à moins de déclencher un sursaut mondial et d’accorder l’ensemble des violons. Reprenons l’exemple des services qui devraient être disponibles sur les anciens systèmes d’exploitation et appareils. Ce seul point ouvre une cascade d’autres.

    Il faudrait en effet décider les constructeurs de terminaux à entretenir leurs produits sur une durée bien plus longue qu’actuellement. Si Apple fournit en général au moins cinq ans de mises à jour à ses iPhone, le monde des smartphones Android ressemble plus à une jungle. On espère d’ailleurs que la décision de Google de fournir sept ans de mises à jour majeures (et donc au moins autant de mineures) à toute sa gamme Pixel 8 fera tache d’huile dans l’industrie. Moins de modèles, plus de support ?

    Une équation loin d’être évidente, car la plupart des fournisseurs de terminaux et de services sont étrangers. On voit mal comment la France pourrait par exemple convaincre un Samsung de multiplier par deux ou trois la durée de support de ses appareils mobiles. Un règlement européen entrera en vigueur en juin 2025, justement sur les « exigences en matière d’écoconception — smartphones, téléphones portables autres que smartphones, téléphones sans fil et tablettes ». Il est notamment question de proposer « des mises à jour du système d’exploitation pendant au moins cinq ans après la mise sur le marché du produit ».

    Autre problème potentiel, certains services ne peuvent plus fonctionner avec d’anciennes versions de systèmes d’exploitation ou de navigateurs pour des raisons de sécurité. C’est le cas des applications bancaires, qui tolèrent mal par exemple les appareils Android rootés.

    Même constat pour les mesures liées à la captation d’attention. Comment motiver Meta à revoir le fonctionnement de ses murs de contenus infinis, alors qu’ils sont l’essence de services tels que Facebook et Instagram ?

    Un premier pas

    Le référentiel a le mérite de défricher le terrain de l’écoconception. Il n’est pas contraignant et n’aurait pas pu l’être, car valable uniquement pour la France.

    Le maître-mot du RGESN est « sobriété » et, à lui seul, permet d’ancrer un peu la réflexion de l’écoconception dans les consciences. Il entraine des questions comme « A-t-on besoin de ce service ? » ou « Cet usage est-il raisonné ? Approprié ? ».

    Le chemin à parcourir est cependant encore bien long. On le sait depuis longtemps, la consommation du numérique est surtout drainée par la fabrication des appareils. Une part importante de l’économie est fondée sur le renouvellement régulier des produits, longtemps considérés comme (presque) jetables.

    Le document rappelle cependant que si le numérique ne représente actuellement que 2,5 % de l’empreinte carbone en France, ses usages sont amenés à exploser d’ici 2030. L’ADEME estime ainsi que le trafic sera multiplié par 6 et que le nombre d’appareils bondira de 65 %, porté par l’explosion des objets connectés. L’empreinte carbone du numérique augmenterait alors de 45 % et la consommation de ressources abiotiques (métaux et minéraux) de 14 %.

    Comme le dit le référentiel lui-même, il ne s’agit pas de révolutionner l’industrie du numérique, mais d’établir « une base de connaissances et recommandations commune permettant d’accompagner les démarches volontaires d’écoconception ». Dans cette optique, il se veut un « outil d’action et de sensibilisation ».

    De la même manière que les rapports de l’Arcep sur la consommation du numérique s’enrichissent à chaque édition, il sera intéressant de suivre l’évolution du référentiel.

    Nous reviendrons dans un deuxième temps sur certains aspects du RGESN, notamment ses limites et défis.

    Source : next.ink

  • 1 Votes
    4 Messages
    82 Vues

    Autant je suis plutôt satisfait des mesures européennes pour limiter la toute puissance et les abus des GAFAM, même si contraignantes au quotidien, autant là je trouve qu’elle tombe dans l’abus très clairement. Ce n’est pas complètement étonnant, ça va de pair avec la montée générale de l’extrême droite elle-même corrélée avec la baisse du pouvoir d’achat qui ne va pas s’arrêter de sitôt.

    Sinon bonne journée, j’ai à faire

    60315ab8-d40e-460c-baac-4a75d2c3d741-Sans titre.jpg
    fb68f509-23b3-4ef7-aedb-7ca018aac166-Sans titre.jpg

  • 2 Votes
    2 Messages
    59 Vues

    Mais les fdp, ils vont jamais s’arrêter

    Espérons qu’un acteur refuse et continu son service normalement en les envoyant chier

  • 4 Votes
    6 Messages
    96 Vues

    Oh les fdp, on l’attendaient pas celle là

  • 1 Votes
    2 Messages
    44 Vues

    Ha ha. Les jeuns acrro à l’IA en PLS

  • 2 Votes
    3 Messages
    54 Vues

    Perso, c’est le miroir ! typiquement, je me regarde dedans et j’engueule DuJambon qu’est tyrannique !
    et vous ?

  • 1 Votes
    9 Messages
    185 Vues

    C’est quoi Google Chrome?

  • 2 Votes
    1 Messages
    40 Vues

    En 2020, l’entreprise de Redmond planifiait une empreinte « carbone négative » à partir de 2030 et même « effacer », d’ici 2050, l’ensemble de son empreinte carbone depuis 1975. Depuis, notamment à cause de ses investissements dans l’IA, Microsoft a de fait augmenté ses émissions de CO2 de 29 %.

    C’est dans le rapport sur le développement durable 2024 de Microsoft (pdf) que le chiffre de l’augmentation de 29,1 % des émissions de CO2 de l’entreprise entre 2020 et 2023 se cache parmi de nombreuses photos de champignons, d’arbres, de roches, d’éoliennes et de panneaux solaires.

    La construction de data centers pour l’IA en cause

    S’il est répété trois fois dans le rapport, ce chiffre n’est pas mis en exergue du rapport, contrairement aux « 5 millions de tonnes de carbone éliminées pendant l’année 2023 », par exemple. Il a pourtant été repéré par Bloomberg.

    Dans son rapport, Microsoft ne fait pas non plus le décompte total de ses émissions de CO2. En parcourant le rapport, The Verge calcule que « l’entreprise a rejeté 15,357 millions de tonnes de dioxyde de carbone au cours de l’exercice fiscal précédent, ce qui est comparable aux émissions d’Haïti ou de Brunei ».

    L’entreprise divise ses émissions entre trois catégories de « scopes ». Le Scope 1 désigne les émissions « directes » créées par les activités internes à l’entreprise. Le Scope 2 vise les émissions « indirectes » venant de l’électricité ou du chauffage que Microsoft utilise. Et la troisième représente les émissions « indirectes » venant de toutes les autres activités « dans lesquelles nous sommes engagés », explique l’entreprise dans son rapport.

    Si cette catégorisation reste assez vague, on peut voir sur le schéma ci-dessous, tiré du rapport, que ce sont les activités du Scope 3 qui représentent la plupart des émissions de CO2 de Microsoft. Pour l’année 2023, elles en représentent même 96 %.

    Donc même si Microsoft explique que les émissions des catégories des scope 1 et 2 ont diminué de 6 % depuis 2020, ces efforts n’ont que peu de poids dans le bilan de l’entreprise.

    D’autant que les activités du scope 3 ont augmenté, elles, de 30,9 %. Celles-ci englobent, entre autres, l’énergie de sa chaine d’approvisionnement, et les matériaux de constructions et notamment ceux de ses data centers.

    Et la bascule effectuée par Microsoft vers la mise en place de plus en plus importante de l’intelligence artificielle l’a poussée à créer d’autant plus de data centers ces dernières années.

    Un objectif cinq fois plus loin qu’en 2020

    Interrogé par le média américain, le président de Microsoft, Brad Smith, explique qu’ « en 2020, nous avons dévoilé ce que nous avons appelé notre “carbon moonshot” [objectif carbone dont l’ambition est comparable à celle d’un lancement vers la lune]. C’était avant l’explosion de l’intelligence artificielle ».

    Si, dans son rapport, l’entreprise insiste sur son utilisation de l’IA pour « accélérer les solutions de développement durable », Brad Smith est bien obligé d’ajouter qu’ « à bien des égards, la lune est cinq fois plus éloignée qu’elle ne l’était en 2020, si l’on pense seulement à nos propres prévisions concernant l’expansion de l’intelligence artificielle et ses besoins en électricité ».

    De plus, comme l’explique le Financial Times, cette concurrence sur la création d’infrastructures de data centers pour l’IA soulève des questions sur la capacité des réseaux énergétiques nationaux à faire face à la hausse attendue de la demande d’électricité. Le média économique américain se demande également si la production d’énergies renouvelables est suffisante sur ces marchés pour répondre aux besoins de l’IA.

    Source : next.ink

  • 2 Votes
    3 Messages
    67 Vues

    @Indigostar C’est vrai, mais si on n’accepte pas les conditions de ces bandits ou des autres, comme google, on ne peut même plus téléphoner, sauf sur un dumbphone. 🙂

  • 2 Votes
    14 Messages
    160 Vues

    Comment se le faire voler en 2min

  • 3 Votes
    17 Messages
    138 Vues

    @duBoudin
    Piggster Meeboo GIF
    Mon pauvre, tiens ptit câlin :cochon:

  • 2 Votes
    1 Messages
    28 Vues


    Pour la démonstration technologique CADRE de la NASA, trois petits rovers qui exploreront ensemble la Lune montreront leur capacité à conduire en équipe de manière autonome – sans commandes explicites des ingénieurs – lors d’un test dans une salle blanche du Jet Propulsion Laboratory de l’agence en décembre 2023.
    Crédit : NASA/JPL-Caltech Plus sur les rovers: https://www.jpl.nasa.gov/images/pia26164-nasas-cadre-rovers-take-first-autonomous-drive

    La construction et les tests sont terminés sur les rovers CADRE, qui cartographieront ensemble la surface lunaire sous forme de démonstration technique pour montrer la promesse des missions multirobots.

    Un trio de petits rovers qui exploreront la Lune en synchronisation les uns avec les autres se dirigent vers le lancement. Les ingénieurs du Jet Propulsion Laboratory de la NASA en Californie du Sud ont récemment terminé l’assemblage des robots, puis les ont soumis à une série de tests éprouvants pour s’assurer qu’ils survivront à leur voyage en fusée dans l’espace et à leurs voyages dans l’environnement lunaire impitoyable.

    Faisant partie d’une démonstration technologique appelée CADRE ( Cooperative Autonomous Distributed Robotic Exploration ), chaque rover à énergie solaire a à peu près la taille d’une valise à main. Les rovers et le matériel associé seront installés sur un atterrisseur en direction de la région lunaire Reiner Gamma. Ils passeront les heures de clarté d’un jour lunaire – l’équivalent d’environ 14 jours sur Terre – à mener des expériences en explorant, cartographiant et utilisant de manière autonome un radar pénétrant dans le sol qui scrutera sous la surface de la Lune.

    L’objectif est de montrer qu’un groupe de vaisseaux spatiaux robotisés peut travailler ensemble pour accomplir des tâches et enregistrer des données en équipe sans commandes explicites des contrôleurs de mission sur Terre. Si le projet réussit, les futures missions pourraient inclure des équipes de robots se déployant pour prendre des mesures scientifiques simultanées et distribuées, potentiellement en soutien aux astronautes. (le robot réparateur de Wall-E ?)

    Les ingénieurs ont consacré de longues heures à tester les rovers et à résoudre les bugs pour terminer le matériel, le faire passer par les tests et le préparer à l’intégration avec l’atterrisseur.

    “Nous avons travaillé à plein régime pour préparer cette démo technologique pour son aventure lunaire”, a déclaré Subha Comandur, chef de projet CADRE au JPL. « Cela a été des mois de tests presque 24 heures sur 24 et parfois de nouveaux tests, mais le travail acharné de l’équipe porte ses fruits. Nous savons désormais que ces rovers sont prêts à montrer ce qu’une équipe de petits robots spatiaux peut accomplir ensemble. »

    679cdda7-c248-4738-aa16-b1e22448df0e-image.png

    Secouez et faites cuire

    (voir la vidéo impressionnante dans l’article source ci-dessous)

    Bien que la liste des tests soit longue, les plus brutaux impliquent des conditions environnementales extrêmes pour garantir que les rovers peuvent résister aux rigueurs de la route à venir. Cela inclut d’être enfermé dans une chambre à vide thermique qui simule les conditions sans air de l’espace et ses températures extrêmement chaudes et froides. Le matériel est également fixé à une « table vibrante » spéciale qui vibre intensément pour s’assurer qu’il résistera au voyage hors de l’atmosphère terrestre.

    « C’est à cela que nous soumettons nos rovers : « secouer » pour simuler le lancement de la fusée lui-même et « cuire » pour simuler les températures extrêmes de l’espace. C’est très angoissant d’être témoin en personne », a déclaré Guy Zohar du JPL, responsable du système de vol du projet. « Nous utilisons de nombreuses pièces commerciales soigneusement sélectionnées pour notre projet. Nous nous attendons à ce qu’ils fonctionnent, mais nous sommes toujours un peu inquiets lorsque nous procédons aux tests. Heureusement, chaque test a finalement été couronné de succès.

    Les ingénieurs ont également effectué des tests environnementaux sur trois éléments matériels montés sur l’atterrisseur : une station de base avec laquelle les rovers communiqueront via des radios en réseau maillé, une caméra qui fournira une vue des activités des rovers et les systèmes de déploiement qui abaisseront les rovers. à la surface lunaire via une attache en fibre alimentée lentement à partir d’une bobine motorisée.

    Mettre le code à l’épreuve aussi

    Pendant ce temps, les ingénieurs travaillant sur le logiciel d’autonomie coopérative de CADRE ont passé de nombreux jours dans le Mars Yard rocheux et sablonneux du JPL avec des versions à grande échelle des rovers appelées modèles de développement . Grâce au logiciel de vol et aux capacités d’autonomie à bord, ces rovers d’essai ont montré qu’ils pouvaient atteindre les objectifs clés du projet. Ils roulèrent ensemble en formation. Confrontés à des obstacles inattendus, ils ont ajusté leurs plans en groupe en partageant des cartes mises à jour et en replanifiant des itinéraires coordonnés. Et lorsque la batterie d’un rover était faible, toute l’équipe faisait une pause pour pouvoir continuer ensemble plus tard.

    b4809075-c3b0-48bb-a7d6-15c215feb2e7-image.png
    Chacun reconnaitra les siens (désolé, je n’ai pas pu résister) ou sinon

    Le projet a effectué plusieurs trajets de nuit sous de grandes lampes à large faisceau afin que les rovers puissent expérimenter des ombres et un éclairage extrêmes qui se rapprochent de ceux qu’ils rencontreront pendant la journée lunaire.

    Après cela, l’équipe a effectué des tests de conduite similaires avec des modèles de vol (les rovers qui iront sur la Lune) dans une salle blanche du JPL. Lorsque le sol impeccable s’est révélé un peu glissant – une texture différente de la surface lunaire – les robots ont quitté la formation. Mais ils se sont arrêtés, se sont adaptés et ont poursuivi leur chemin prévu.

    « Gérer les situations difficiles – c’est important pour l’autonomie. La clé est que les robots réagissent aux choses qui ne se déroulent pas comme prévu, puis replanifient et réussissent toujours », a déclaré Jean-Pierre de la Croix du JPL, chercheur principal du CADRE et responsable de l’autonomie. « Nous nous dirigeons vers un environnement unique sur la Lune et il y aura bien sûr des inconnues. Nous avons fait de notre mieux pour nous y préparer en testant ensemble les logiciels et le matériel dans diverses situations.

    Ensuite, le matériel sera expédié à Intuitive Machines pour être installé sur un atterrisseur Nova-C qui sera lancé au sommet d’une fusée SpaceX Falcon 9 depuis le Kennedy Space Center de la NASA en Floride.

    Source: https://www.jpl.nasa.gov/news/nasas-network-of-small-moon-bound-rovers-is-ready-to-roll

    Sur terre aussi, il va falloir que les futurs robots coopèrent, puisque les humains n’en sont guère capables.

  • 0 Votes
    1 Messages
    24 Vues

    Le rival de Neuralink établit un record de puce cérébrale avec 4 096 électrodes sur le cerveau humain

    Precision s’attend à ce que son implant cérébral mini-invasif arrive sur le marché l’année prochaine.

    5853a651-f8a7-4cda-98dd-ef525df0f579-image.png
    Chacun des réseaux de microélectrodes de Precision comprend 1 024 électrodes d’un diamètre compris entre 50 et 380 microns, connectées à une interface matérielle personnalisée.

    La société d’interface cerveau-ordinateur Precision Neuroscience affirme avoir établi un nouveau record mondial pour le nombre d’électrodes de neurones placées sur le cerveau d’un être humain vivant : 4 096, dépassant le précédent record de 2 048 établi l’année dernière, selon un communiqué de la société mardi.

    La haute densité d’électrodes permet aux neuroscientifiques de cartographier l’activité des neurones avec une résolution sans précédent, ce qui les aidera à terme à mieux décoder les pensées en actions prévues.

    Precision, comme beaucoup de ses concurrents, a pour objectif préliminaire d’utiliser son interface cerveau-ordinateur (BCI) pour restaurer la parole et le mouvement chez les patients, en particulier ceux qui ont subi un accident vasculaire cérébral ou une lésion de la moelle épinière. Mais Precision se démarque de ses concurrents par une scission notable d’avec l’une des sociétés BCI les plus en vue, Neuralink, propriété du milliardaire controversé Elon Musk.

    Precision a été cofondée par le neurochirurgien et ingénieur Ben Rapoport, qui a également été co-fondateur de Neuralink en 2016. Rapoport a ensuite quitté l’entreprise et, en 2021, a lancé son rival Precision avec trois collègues, dont deux avaient également été impliqués dans Lien neuronal.

    Dans un épisode du 3 mai du podcast du Wall Street Journal, The Future of Everything, Rapoport a suggéré qu’il avait quitté Neuralink en raison de problèmes de sécurité concernant les implants BCI plus invasifs de la société.

    Pour déplacer les interfaces neuronales du monde de la science vers le monde de la médecine, « la sécurité est primordiale », a déclaré Rapoport. “Pour un dispositif médical, la sécurité implique souvent un caractère peu invasif”, a-t-il ajouté. Rapoport a noté qu’au début du développement de la BCI - y compris l’utilisation de l’Utah Array - “il existait cette idée que pour extraire des données riches en informations du cerveau, il fallait pénétrer dans le cerveau avec de minuscules petites électrodes en forme d’aiguilles”. il a dit. “Et ceux-ci ont l’inconvénient de provoquer des lésions cérébrales lorsqu’ils sont insérés dans le cerveau. J’ai senti qu’il était possible d’extraire des données riches en informations du cerveau sans endommager le cerveau.” Precision a été créé avec cette philosophie à l’esprit : caractère invasif, évolutivité et sécurité minimes, a-t-il déclaré.

    Le dispositif BCI actuel de Neuralink contient 1 024 électrodes réparties sur 64 fils plus fins que des cheveux implantés dans le cerveau par un robot chirurgical. Chez le premier patient à recevoir un implant, les fils ont été insérés de 3 à 5 mm dans le tissu cérébral. Mais 85 pour cent de ces fils se sont rétractés du cerveau du patient dans les semaines qui ont suivi l’opération, et certaines électrodes ont été coupées en raison du déplacement. Neuralink aurait l’intention d’implanter les fils plus profondément (8 mm) chez son deuxième patient. La Food and Drug Administration aurait donné son feu vert à cette opération. L’Utah Array, quant à lui, peut pénétrer jusqu’à 1,5 mm dans le cerveau.

    Le dispositif de Precision ne pénètre pas du tout dans le cerveau, mais se trouve au-dessus du cerveau. Le dispositif contient au moins un film jaune, censé représenter un cinquième de l’épaisseur d’un cheveu humain, qui contient 1 024 électrodes intégrées dans un motif en treillis. L’appareil est modulaire, permettant d’ajouter plusieurs films à chaque appareil. Les films peuvent être glissés sur le cerveau lors d’une chirurgie mini-invasive qui nécessite de couper seulement une fine fente dans le crâne, à travers laquelle le dispositif en forme de ruban jaune peut glisser, selon Precision. Le film épouse alors la surface du cerveau. L’unité de traitement qui collecte les données des électrodes est conçue pour être placée entre le crâne et le cuir chevelu. Si l’implant doit être retiré, le film est conçu pour glisser du cerveau sans causer de dommages.

    En avril, une équipe de neurochirurgie du système de santé Mount Sinai a placé l’un des appareils de Precision contenant quatre films contenant des électrodes, totalisant 4 096 électrodes, sur le cerveau d’un patient qui subissait une intervention chirurgicale pour enlever une tumeur cérébrale bénigne. Alors que le patient dormait et que son crâne était ouvert, les chercheurs de Precision ont utilisé leurs quatre réseaux d’électrodes pour enregistrer avec succès l’activité neuronale détaillée d’une zone d’environ 8 centimètres carrés du cerveau.

    “Ce record est une étape significative vers une nouvelle ère”, a déclaré Rapoport dans un communiqué de presse mardi. “La capacité de capturer des informations corticales de cette ampleur et de cette échelle pourrait nous permettre de comprendre le cerveau de manière beaucoup plus approfondie.”

    Le test de l’implant marque la 14e fois que Precision place son dispositif sur un cerveau humain, selon CNBC , qui était présente pour l’opération à New York. Precision indique qu’elle espère commercialiser son premier appareil en 2025.

    Source: https://arstechnica.com/science/2024/05/neuralink-rival-sets-brain-chip-record-with-4096-electrodes-on-human-brain/

  • 0 Votes
    6 Messages
    84 Vues

    @Rapace a dit dans Un ransomware récemment découvert utilise BitLocker pour chiffrer les données des victimes :

    @duJambon merci de m’avoir éclairé c’est cool, j’ignorais que ces malware pouvaient infecter également les bios des machines, c’est grave quand même 😮

    des enfoirés ces pirates ! :enerve:

    Y’avait meme l’infection de la box internet pendant un moment, je sais pas si ça se fait encore

  • 2 Votes
    1 Messages
    41 Vues

    Ironiquement, l’un des exemples les plus drôles d’échec de l’aperçu de l’IA de Google survient lorsque le système ne se rend pas compte qu’une source en ligne essayait d’être drôle. Une réponse de l’IA suggérant d’utiliser “1/8 tasse de colle non toxique” pour empêcher le fromage de glisser de la pizza peut être attribuée à quelqu’un qui essayait manifestement de troller un fil de discussion en cours . Une réponse recommandant un “fluide clignotant” pour un clignotant qui ne fait pas de bruit peut également être attribuée à un troll sur les forums de conseils Good Sam , que Google’s AI Overview considère apparemment comme une source fiable.

    3021c4f3-6c4e-4ca5-b77f-7fa7f414fa37-image.png
    Le 4ème point “Add glue into the sauce” (ajouter de la colle à la sauce)

    Dans les recherches Google régulières, ces messages farfelus provenant d’utilisateurs Internet aléatoires ne figureraient probablement pas parmi les premières réponses vues par quelqu’un en cliquant sur une liste de liens Web. Mais avec AI Overviews, ces trolls ont été intégrés dans le résumé des données faisant autorité présenté juste en haut de la page de résultats.

    De plus, rien dans les minuscules cases « lien source » sous le résumé de l’IA de Google ne suggère que l’un ou l’autre de ces trolls du forum est autre chose que de bonnes sources d’informations. Parfois, cependant, jeter un coup d’œil à la source peut vous éviter quelques ennuis.

    Même si les aperçus de l’IA de Google ne sont pas faux en soi, ils peuvent parfois être étonnamment étranges.
    Nous avons également été titillés lorsqu’une liste de recommandations d’IA pour un petit-déjeuner sain a répertorié une recette de smoothie comme « la préférée de mes enfants », s’appuyant sur une formulation similaire de la source Kristine’s Kitchen Blog . Lorsqu’un système d’IA commence à s’appuyer sur des théories, vous pouvez commencer à voir les problèmes qui peuvent survenir lors d’une synthèse du contenu Web.

    Dates erronées, données périmées, tout et plus encore est susceptible d’arriver d’ans l’overview de l’IA.

    41c053c1-406c-491f-9c6e-bb9428bc2436-image.png

    Il existe nombreux autres exemples qui circulent sur les réseaux sociaux et que nous n’avons pas pu reproduire nous-mêmes. Cela ne signifie pas pour autant que ces messages ne sont pas légitimes ; il est probable que Google a simplement mis à jour son système pour corriger ces erreurs dans les jours qui ont suivi (soit par un examen humain, soit par un réglage automatisé).

    Dans au moins un cas, nous avons été témoins de ce type de mise à jour quotidienne. Mercredi matin, l’IA de Google nous a indiqué que la PlayStation de Sony et la Sega Saturn étaient disponibles à l’achat en 1993 (interprétant apparemment mal une page Wikipédia décrivant une génération de console s’étendant de 1993 à 1998). Lorsque nous avons réexécuté la même requête jeudi matin, l’AI Overview a indiqué à juste titre que l’Atari Jaguar avait été lancée en 1993, avec la concurrence de Sony et de Sega lancée plus tard.

    Un porte-parole de Google a déclaré à Ars : “Nous avons effectué des tests approfondis avant de lancer cette nouvelle expérience et utiliserons ces exemples isolés alors que nous continuons à affiner nos systèmes dans leur ensemble.” Google a également déclaré qu’il utilisait des tests contradictoires pour améliorer les résultats en termes de factualité et de sécurité et que la société ne prévoyait pas d’afficher des résumés d’IA pour certains sujets explicites ou dangereux.

    Même s’il peut être frappant de voir un certain nombre d’erreurs de recherche d’IA comme celle-ci, il convient de rappeler que les affiches sur les réseaux sociaux sont moins susceptibles d’attirer l’attention sur les exemples fréquents dans lesquels l’aperçu de l’IA de Google a fonctionné comme prévu en fournissant des informations concises et précises extraites du Web. Pourtant, lorsqu’un nouveau système menace de modifier quelque chose d’aussi fondamental pour Internet que la recherche Google, il vaut la peine d’examiner où ce système semble échouer.

    Source: https://arstechnica.com/information-technology/2024/05/googles-ai-overview-can-give-false-misleading-and-dangerous-answers/

  • 0 Votes
    5 Messages
    97 Vues

    Est-ce que quand tu refile ton compte à ton descendant, qui en profite pendant un bon moment… et qui le refile à son descendant et qui en profite lui aussi durant un bon moment… Est-ce que ça peut être considéré comme un déménagement ?
    Quand tu switch de pays avec ton VPN, est-ce que tu te fais bloquer ?

    Quand steam fermera ses portes… là il sera difficile de refourguer son compte ouais.
    Même si mes questions sont naïves, je me dis que dans la logique il y a un espoir que ça passe ^^

  • Comment désactiver la recherche par I.A. de google

    1
    1 Votes
    1 Messages
    75 Vues

    Le paramètre « udm=14 » dans la recherche Google vous permet de tuer la recherche par l’“IA”

    41593700-f90f-44a1-ab0b-25181a222226-image.png
    Les résultats “IA” désormais normaux par rapport aux résultats “Web” old school.

    Si vous en avez assez de l’aperçu de l’IA de Google qui extrait toute la valeur du Web tout en disant aux gens de manger de la colle ou de courir avec des ciseaux, vous pouvez le désactiver, en quelque sorte. Google a dit aux gens que sa boîte d’IA en haut des résultats de recherche est l’avenir , et vous ne pouvez pas la désactiver, mais cela ignore le fonctionnement de la recherche Google : de nombreuses options sont alimentées par des paramètres d’URL. Cela signifie que vous pouvez désactiver la recherche IA avec cette astuce simple ! (Désolé.)

    Notre méthode pour supprimer la recherche IA utilise par défaut le nouveau filtre de recherche « Web », que Google a récemment lancé comme moyen de rechercher sur le Web sans les déchets IA de qualité alpha de Google. C’est en fait plutôt sympa, affichant uniquement les 10 liens bleus traditionnels, vous donnant une page de résultats propre (enfin, autre que les publicités) et épurée qui semble dater de 2011. Malheureusement, l’interface utilisateur de Google n’a aucun moyen de créer des “web”. " recherchez la valeur par défaut, et y passer signifie parcourir la liste déroulante “plus” d’options après avoir effectué une recherche, ce qui fait donc quelques clics de profondeur.

    Vérifiez l’URL après avoir effectué une recherche et vous verrez une URL d’un kilomètre de long pleine d’informations de suivi ésotériques et d’informations sur le mode. Nous placerons chaque paramètre d’URL de résultat de recherche sur une nouvelle ligne afin que l’URL soit quelque peu lisible :

    8b5a87f0-14dd-4edb-be05-295d44b14721-image.png

    La plupart d’entre eux n’ont de signification que pour le système de suivi interne de Google, mais cette ligne “&udm=14” est celle qui vous mettra dans une recherche sur le Web. Ajoutez-le à la fin d’une recherche normale et vous serez démarré dans l’interface propre à 10 liens bleus. Bien que Google ne vous permette pas de définir cette valeur par défaut, si vous disposez d’un moyen de modifier automatiquement l’URL de recherche Google, vous pouvez créer vos propres valeurs par défaut. Une façon de modifier l’URL de recherche est d’utiliser un site proxy comme udm14.com , qui est probablement le plus grand site vulgarisant cette technique. Un site proxy pourrait cependant, s’il le souhaitait, lire toutes vos requêtes de résultats de recherche (votre requête se trouve également dans l’URL), donc c’est à vous de décider si vous faites confiance à ce site.

    Si vous effectuez une recherche à partir de la barre d’adresse de votre navigateur, c’est un bon moyen de faire de la recherche « Web » la recherche par défaut sans impliquer un tiers. Chrome et Firefox ont essentiellement exactement la même interface utilisateur pour les paramètres de recherche. Dans Chrome, vous y accédez en cliquant avec le bouton droit sur la barre d’adresse et en cliquant sur « Gérer les moteurs de recherche ». Firefox peut demander un peu plus de travail, car vous devrez d’abord activer les moteurs de recherche personnalisés. Tapez d’abord “about:config” dans la barre d’adresse et appuyez sur Entrée, puis recherchez “browser.urlbar.update2.engineAliasRefresh” et appuyez sur le bouton “plus”. Ensuite, allez dans Paramètres -> Recherche, faites défiler jusqu’à la section du moteur de recherche et cliquez sur « Ajouter ».

    Sur les deux navigateurs, vous ne pourrez probablement pas modifier la liste Google existante. Vous devrez donc créer un nouveau raccourci de recherche, l’appeler Google Web et utiliser https://www.google.com/search?q=%s&udm=14 comme URL.

    2e042f59-99b2-4edd-8927-93a74887cfd0-image.png

    La troisième case dans les paramètres du moteur de recherche est nommée « raccourci » ou « alias », selon votre navigateur, et peu importe si vous envisagez d’en faire votre nouveau moteur de recherche par défaut. Si vous ne souhaitez pas que ce soit la valeur par défaut, raccourci/alias vous permettra de lancer sélectivement cette recherche depuis la barre d’adresse en démarrant votre requête avec le texte du raccourci. Les instructions d’udm14.com suggèrent “gw”, donc taper “gw devrais-je manger des pierres” lancera la recherche “web”. Omettre “gw” lancera quand même la boîte idiote de l’IA de Google, qui vous dira probablement que les roches sont délicieuses. Pour utiliser ce moteur de recherche à tout moment, retrouvez-le dans la liste après l’avoir créé, cliquez sur le bouton de menu à côté de la liste et cliquez sur « établir la valeur par défaut ». Le raccourci n’est alors plus nécessaire : tout ce qui est saisi dans la barre d’adresse/le champ de recherche ira directement à la recherche sur le Web.

    Pendant que vous êtes ici en train de jouer avec les paramètres d’URL de Google, vous souhaiterez peut-être en ajouter un autre “&tbs=li:1”. Cela déclenchera automatiquement une recherche « textuelle », ce qui obligera Google à utiliser vos entrées de recherche exactes au lieu de tout rechercher de manière floue, en ignorant certains mots, en remplaçant les mots par des synonymes et en faisant généralement tout ce qu’il peut pour édulcorer votre entrée de recherche. Si vous êtes un novice sur Google, la recherche floue par défaut convient, mais si vous êtes un expert qui a perfectionné ses compétences en Google Fu depuis le bon vieux temps, la recherche floue est tout simplement ennuyeuse. C’est juste une valeur par défaut, donc si jamais vous vous retrouvez avec zéro résultat, appuyer sur le bouton « Outils » vous permettra toujours de basculer entre « textuellement » et « tous les résultats ».

    Par défaut, la recherche “Web” vous permettra d’utiliser Google avec seulement les 10 liens bleus, et même si cela donne l’impression de ramener l’interface à 2011, gardez à l’esprit que vous ne restaurez toujours pas la qualité des résultats de recherche de Google à 2011. Vous êtes je vais toujours utiliser un moteur de recherche qui donne l’impression de s’être complètement abandonné aux spammeurs SEO. Ainsi, même si cette solution de pansement est intéressante, les choses vont tellement mal que la véritable recommandation est probablement de passer à autre chose que Google à ce stade. Nous devons tous trouver un autre moteur de recherche qui valorise le Web et essaie d’y effectuer des recherches. Contrairement à Google, qui semble de plus en plus vouloir sacrifier le Web sur l’autel de l’IA.

    Source: https://arstechnica.com/gadgets/2024/05/google-searchs-udm14-trick-lets-you-kill-ai-search-for-good/

    Valable si jamais google impose aussi sa recherche IA en Europe…

  • 3 Votes
    4 Messages
    64 Vues

    Je crois qu’une IA à plantée

  • 1 Votes
    4 Messages
    81 Vues

    Parmi les nouveautés majeures de cette version, entre autres :

    le support des arrière-plans HDR. le nouveau mode d’économie d’énergie l’intégration de Rust dans le noyau de Windows = sécurité et performances accrues, réductions des vulnérabilités et amélioration de la stabilité l’intégration de Sudo pour Windows = exécution des programmes avec des privilèges administratifs de manière plus sécurisée et contrôlée. support du Wi-Fi 7 Accès aux paramètres : volet de paramètres rapides défilants directement depuis la barre des tâches. Gestion native des archives 7-zip et TAR en plsu du ZIP déjà existant. Conenxion BT plussimple et plus efficace Copilot en application dédiée …