• TvRoad - Clap Fin

    Torrent & P2P
    2
    2 Votes
    2 Posts
    271 Views

    Tvroad, que de souvenirs, ça fait un bail.
    A une prochaine peut être.

  • 0 Votes
    1 Posts
    27 Views


    Des techniciens du Kennedy Space Center de la NASA en Floride préparent le vaisseau spatial Starliner de Boeing pour le ravitaillement.

    Dave Calhoun, qui dirigeait Boeing depuis 2020, quittera ses fonctions de PDG à la fin de l’année.

    HOUSTON—Bien que cela n’ait pas la même importance pour la conscience publique que les problèmes de sécurité des avions de ligne commerciaux, un vol d’essai réussi du vaisseau spatial Starliner de Boeing en mai serait une bonne nouvelle pour l’entreprise aérospatiale en difficulté.

    Ce sera la première fois que la capsule Starliner volera en orbite terrestre basse avec des humains à son bord. Les astronautes de la NASA Butch Wilmore et Suni Williams sont dans les dernières étapes de leur formation pour le soi-disant test en vol en équipage (CFT), une étape avec sept ans de retard sur le calendrier que Boeing a déclaré qu’il pourrait atteindre lorsqu’il a remporté un contrat d’équipage commercial de 4,2 milliards de dollars avec la NASA. il y a une décennie.

    Si les horaires sont respectés, Wilmore et Williams décolleront à bord du vaisseau spatial Starliner de Boeing à bord d’une fusée Atlas V de United Launch Alliance après minuit le 1er mai, heure locale, depuis la station spatiale de Cap Canaveral en Floride. Ils transporteront Starliner jusqu’à la Station spatiale internationale pour un séjour d’au moins huit jours, puis ramèneront la capsule vers un atterrissage assisté par parachute et coussin gonflable dans l’ouest des États-Unis, probablement à White Sands, au Nouveau-Mexique.

    Un remaniement chez Boeing

    Le premier vol spatial habité avec Starliner sera lancé sous la direction d’un PDG de Boeing boiteux. Dave Calhoun, qui a pris la tête de Boeing en 2020, a annoncé lundi qu’il quitterait ses fonctions à la fin de l’année. Le président de Boeing, Larry Kellner, ne briguera pas sa réélection lors de la prochaine assemblée générale des actionnaires. Avec effet immédiat, Boeing remplace également le chef de son unité avions commerciaux.

    Les dernières années n’ont pas été bonnes pour Boeing. Une série de lacunes en matière de sécurité dans les activités aériennes commerciales de la compagnie a brisé la réputation de la compagnie. Deux accidents d’avions 737 Max 8 de Boeing en 2018 et 2019 ont tué 346 personnes, et les enquêteurs ont imputé la conception et les logiciels de Boeing à ces accidents.

    Les enquêtes sur ces accidents ont révélé que Boeing avait pris des raccourcis et caché des défauts aux régulateurs et aux pilotes dans la conception du 737 Max, destiné à maintenir la compétitivité de l’entreprise face aux avions de nouvelle génération produits par son rival européen Airbus. Puis, en janvier, un bouchon de porte sur un avion 737 Max 9 d’Alaska Airlines a explosé en vol, provoquant une décompression rapide et forçant un atterrissage d’urgence.

    Tout le monde à bord a survécu, mais l’incident a déclenché une enquête gouvernementale qui a révélé que les boulons destinés à maintenir le bouchon de porte sur le côté de l’avion manquaient. Les boulons manquaient apparemment lorsque le nouveau 737 Max 9 a quitté l’usine Boeing l’année dernière, et le président du National Transportation Safety Board a rapporté plus tôt ce mois-ci que Boeing n’avait aucune trace des travaux d’installation du bouchon de porte.

    Dans un rapport publié le mois dernier par la Federal Aviation Administration, un groupe d’experts a estimé que la culture de sécurité de Boeing était « inadéquate et déroutante ». Le comité a également noté un « manque de contribution des pilotes à la conception et à l’exploitation des avions ».

    Ne vous attendez pas à la perfection

    Starliner n’a pas non plus été à l’abri de problèmes techniques, d’oublis et de retards. Wilmore, le premier commandant de Starliner, a déclaré à Ars qu’il ne s’inquiétait pas des problèmes dans la division avion de Boeing qui se répercuteraient sur le programme Starliner.

    “Ceux-là ne traversent pas”, a déclaré Wilmore dans une interview avec Ars. “Ils ont peut-être une certaine expertise en ingénierie là où ils se croisent, mais ils ont des gens qui travaillent dans la partie spatiale, et ils ont des gens qui travaillent (sur les avions).”

    c953b5c4-7aaf-4536-9a12-26e28e18077a-image.png
    Suni Williams et Butch Wilmore, les deux astronautes de la NASA s’entraînant pour voler sur Starliner, posent avec leur écusson de mission au Johnson Space Center de la NASA à Houston.

    Boeing gère son activité d’avions commerciaux comme une division distincte des unités qui construisent des engins spatiaux ou des avions militaires. Mais la société a déjà essayé de regrouper ces programmes non liés. En 2015, Boeing a annoncé la création d’une organisation chargée de gérer le développement de deux de ses projets spatiaux phares – Starliner et la fusée Space Launch System de la NASA – aux côtés de l’avion commercial 777X, du ravitailleur KC-46 de l’Air Force et de la nouvelle génération. Avion présidentiel Air Force One.

    À l’époque, Boeing avait déclaré que la nouvelle organisation , calquée sur le développement des avions commerciaux, contribuerait à « briser la courbe des coûts » de ces programmes. Cela permettrait également à l’entreprise “d’appliquer plus efficacement l’expertise en ingénierie, les meilleures pratiques en matière de programmes de développement, ainsi que la gestion et l’intégration des programmes de Boeing à nos activités de développement les plus importantes”.

    Plusieurs de ces programmes ont été financiers perdants pour Boeing. La société a subi 2,4 milliards de dollars de pertes sur son contrat à prix fixe avec l’armée de l’air pour convertir deux 747 en avions de transport présidentiels et plus de 7 milliards de dollars de charges sur le programme de ravitailleurs KC-46 de l’armée de l’air, qui repose également sur un contrat à prix fixe. contrat de prix. A ce jour, Boeing est en déficit de 1,4 milliard de dollars sur le programme Starliner.

    En revanche, le contrat SLS de Boeing avec la NASA est un accord à coût majoré, ce qui signifie que l’entrepreneur n’est pas responsable des dépassements de coûts. Au lieu de cela, le risque financier est transféré aux contribuables américains. L’étage principal SLS construit par Boeing, bien que coûteux, en retard et consommable , a fonctionné presque parfaitement lors du vol d’essai Artemis I de la NASA en 2022, précurseur des futurs vols humains vers la Lune.

    “Il existe dans toute entreprise, toute organisation, une culture qui est définie par les plus hauts niveaux”, a déclaré Wilmore. “Il y a donc un peu de cela, mais il n’y a rien de tout cela de l’autre côté (les avions commerciaux) qui, je dirais, est… même une considération (pour Starliner).”

    Wilmore et Williams sont habitués à prendre des risques calculés. Tous deux sont des pilotes d’essai chevronnés de l’US Navy et chacun a déjà volé deux fois dans l’espace.

    “Nous ne serions pas assis ici si nous ne ressentions pas et ne disions pas à nos familles que nous nous sentons confiants dans ce vaisseau spatial et dans nos capacités à le contrôler”, a déclaré Williams lors d’une conférence de presse vendredi.

    Même si les astronautes sont confiants dans la sécurité de Starliner, le but de cette mission est d’éliminer tout problème avant que Boeing et la NASA ne déclarent le vaisseau spatial prêt à être opérationnel.

    219f0345-1e31-49e2-b152-58bc83df232f-image.png
    Les astronautes Suni Williams (à gauche) et Butch Wilmore (à droite) à l’intérieur d’un simulateur Starliner au Johnson Space Center de la NASA à Houston.

    “Les attentes des médias ne devraient pas être parfaites”, a déclaré Wilmore. “Il s’agit d’un vol d’essai. Voler et opérer dans l’espace est difficile. C’est vraiment difficile, et nous allons trouver des choses. C’est prévu. C’est le premier vol où nous intégrons toutes les capacités de ce vaisseau spatial.”

    Les observateurs extérieurs, a déclaré Wilmore, “ne réalisent pas qu’il y a des vols en cours avec des F-18 à l’époque, ou avec les T-45 que j’ai pilotés, sur lesquels nous avons trouvé des choses et les avons réparées”.

    “Vous n’avez pas de visibilité sur ces programmes et ces vols”, a-t-il déclaré. "Celui-ci est visible, surtout avec certaines des choses qui se sont produites. Alors n’attendez pas cette chose, s’il vous plaît. Cela ne sera pas parfait. Mais cela ne sera pas mauvais non plus. Nous n’irions pas si nous Je pensais que… Ce seront des choses qui seront rectifiables. Et le tout, c’est de se lever, d’arriver à la station spatiale et de revenir, et nous allons montrer qu’elle a cette capacité.

    Certification pour l’équipage

    Le vol d’essai est une dernière étape avant que la NASA n’approuve officiellement Starliner pour des vols réguliers de rotation d’équipage de six mois vers la station spatiale, chacun transportant quatre astronautes. SpaceX, l’autre sous-traitant des équipages commerciaux de la NASA, fournit ce service depuis 2020.

    Avec Starliner, la NASA disposera simultanément de deux vaisseaux spatiaux orbitaux à capacité humaine, ce que l’agence n’a jamais eu auparavant. La mise en ligne de Starliner réduira également la dépendance de la NASA à l’égard du Soyouz russe comme option de secours pour le transport de l’équipage.

    Steve Stich, responsable du programme des équipages commerciaux de la NASA, a déclaré vendredi que l’agence spatiale était sur le point de certifier et d’évaluer par des humains le vaisseau spatial Starliner pour le prochain vol d’essai des astronautes. Les ingénieurs disposent de données provenant de deux vols d’essai non pilotés du Starliner, d’une démonstration d’abandon du lancement et de tests au sol approfondis qui montrent que le vaisseau spatial devrait répondre aux normes de sécurité de la NASA.

    “De mon point de vue, jusqu’à présent, il semble que nous ayons tout examiné”, a déclaré Stich. "Nous avons effectué, dans de nombreux cas, une analyse indépendante, et nous faisons la même chose pour le Dragon (de SpaceX) par rapport aux charges d’atterrissage. , abandonner la performance, le rendez-vous et l’amarrage, toutes ces sortes de choses.

    Arriver à ce point a été un véritable défi pour Boeing et la NASA. Le premier vol d’essai orbital du Starliner en 2019, sans équipage à l’intérieur, s’est terminé prématurément après qu’un problème logiciel ait provoqué une mauvaise heure de l’horloge de sa mission. Cela a amené la capsule à brûler plus de carburant que prévu après son arrivée dans l’espace, l’empêchant d’atteindre la station spatiale.

    Les valves corrodées à l’intérieur du système de propulsion du Starliner ont provoqué un autre retard en 2021, lorsque Boeing était sur le point de lancer une nouvelle reprise du vol d’essai en difficulté de 2019. Enfin, en mai 2022, Boeing a lancé et amarré avec succès un vaisseau spatial Starliner à la Station spatiale internationale, puis a ramené la capsule sur Terre.

    Les ingénieurs ont résolu des problèmes relativement mineurs avec les propulseurs et le système de refroidissement du Starliner découverts lors du vol d’essai de 2021, et Boeing semblait être sur la bonne voie pour lancer le test en vol avec équipage l’été dernier. Mais comme dans un jeu de taupe , les examens de préparation au vol ont révélé d’autres problèmes avec les parachutes de Starliner et la présence de ruban inflammable à l’intérieur du vaisseau spatial, entraînant un autre retard de près d’un an .

    “Nous pouvons affirmer avec certitude que ces problèmes sont derrière nous”, a déclaré Mark Nappi, responsable du programme Starliner de Boeing.

    Les responsables de la NASA et de Boeing ont pris ce temps supplémentaire pour effectuer des tests logiciels intégrés supplémentaires et introduire une conception de parachute améliorée qui n’était auparavant pas censée voler sur Starliner avant une mission ultérieure.

    Stich a déclaré que l’agence surveillait de près Boeing dans le cadre du programme Starliner.

    “Nous avions des gens côte à côte qui inspectaient la bande, inspectaient le câblage après que la bande ait été retirée, s’assurant que cela était fait correctement, même chose avec les parachutes. Le processus est donc un peu différent de celui de l’aviation”, a-t-il déclaré. “Nous parlons de deux vaisseaux spatiaux qui vont effectuer plusieurs missions. Chacun de ces vaisseaux spatiaux reçoit donc beaucoup de soins et d’alimentation individuels, et la NASA est aux côtés de Boeing.”

    La NASA examine toujours les données sur les parachutes redessinés de Boeing, même si Stich a déclaré que le dernier test de parachute “nous a donné une grande confiance dans ce système”. La NASA termine également une analyse indépendante du système d’interruption de lancement du Starliner, mais comme pour les parachutes, Stich a déclaré qu’il espérait finaliser l’approbation de ce système par l’agence d’ici avril.

    “Les ingénieurs en chef s’assoient maintenant avec chacune de leurs disciplines pour poser ces mêmes questions. Avons-nous oublié quelque chose ? Êtes-vous inquiet à propos de quelque chose ? Pensez-vous qu’il y a un domaine dans lequel nous devons travailler un peu plus ?” dit Stich.

    Pendant ce temps, les techniciens de Boeing du Kennedy Space Center de la NASA en Floride chargent le vaisseau spatial Starliner avec des propulseurs avant sa date de lancement prévue le 1er mai. Il s’agit de la même capsule d’équipage qui a volé en orbite lors du vol d’essai sans pilote en 2019. Une fois le ravitaillement terminé. , les équipes au sol transféreront la capsule de l’usine de Boeing vers le 10 avril vers un hangar vertical sur la rampe de lancement de l’ULA, à quelques kilomètres de là, à la station spatiale de Cap Canaveral, où l’ULA la soulèvera au sommet de la fusée Atlas V déjà assemblée.

    En supposant que toutes ces étapes se déroulent sans accroc, l’Atlas V sera déployé sur sa rampe de lancement quelques jours avant le décollage. Puis, à la fin du 30 avril, Wilmore et Williams enfileront leurs combinaisons pressurisées bleues unies et s’attacheront au Starliner pour le lancement à 00h55 HAE (04h55 UTC) le 1er mai.

    Source: https://arstechnica.com/space/2024/03/despite-turbulence-at-boeing-astronauts-are-ready-to-fly-companys-starliner/

    Une petite prière pour Suny et Butch, ils vont surement en avoir bien besoin…
    Quant à vous, sortez couvert.

  • 1 Votes
    5 Posts
    44 Views

    Bon… Z’aviez bien saisi que c’était un trait d’humour, c’est cool

    Par contre, la ptite remarque sur le côté flemmard -> C’est une qualité ! C’est souvent en prenant le chemin le plus rapide qu’on arrive aux meilleurs résultats.
    Ceci, évidement, si on cherche à faire les choses proprement.

    Si tu cherche à en faire le moins possible pour sortir un travail de m****, souvent tu te fais gauler. Comme ici.

  • 1 Votes
    6 Posts
    86 Views

    @Violence Le soft, c’est juste le système prédictif, après pour le travail (autre qu’informatique, et même, il vaut mieux ne pas nourrir le modèle de code écrit avec les pieds), il vaut mieux avoir des données solides.

    J’ai trouvé des avis sur Llama 2:

    LLaMA 2 (pour Large Language Model with Attention 2) est un modèle d’IA génératif qui peut produire des textes en langage naturel en fonction d’une entrée ou d’une invite donnée. Il peut être utilisé pour diverses applications telles que les chatbots, la création de contenu, la synthèse, la traduction, etc. LLaMA 2 est la deuxième version du LLM de Meta, qui a été publié pour la première fois en février 2023. Selon Meta, LLaMA 2 a été formé sur 40 % de données en plus que LLaMA 1, qui comprend des informations provenant de « sources de données en ligne accessibles au public ». Il affirme également qu’il « surclasse » d’autres LLM comme Falcon et MPT en ce qui concerne les tests de raisonnement, de codage, de compétence et de connaissances.

    Et un truc qui pourrait beaucoup t’intéresser: LLaMa 2 est disponible dans le catalogue de modèles Azure AI, ce qui permet aux développeurs utilisant Microsoft Azure de construire avec lui et de tirer parti de leurs outils cloud-native pour le filtrage de contenu et les fonctions de sécurité. Il est également optimisé pour fonctionner localement sur Windows, offrant aux développeurs un flux de travail transparent lorsqu’ils proposent des expériences d’IA générative à leurs clients sur différentes plateformes. LLaMa 2 est disponible via Amazon Web Services (AWS), Hugging Face et d’autres fournisseurs.

    Pour plus d’info, voir par exemple: https://intelligence-artificielle.developpez.com/actu/346730/Le-modele-LLamA-2-de-Meta-qui-vient-d-etre-publie-ne-serait-pas-open-source-de-l-avis-de-Alessio-Fanelli-Ingenieur-logiciel-associe-chez-Decibel/

    D’après d’autres sources, Wizard Coder Python 13B Q5 serait d’ailleurs extrait de Llama 2 (et tout ça extrait de ChatGPT 4), mais c’est pas vraiment aussi évident de s’y retrouver dans cette jungle.

    Je n’ai pas trouvé d’avis sur Trinity 1.2 7B Q4, un des deux modèles testé par Korben, si ce n’est sa description:

    Trinity is an experimental model merge using the Slerp method. Recommended for daily assistance purposes.

    Ça vaut peut-être aussi le coup de chercher ses limites.

    Il est fort possible que Jan propose à l’avenir des modèles encore plus spécialisés.

    Y’a aussi dans la liste: CodeNinja 7B Q4 4GB de ram

    CodeNinja is good for coding tasks and can handle various languages including Python, C, C++, Rust, Java, JavaScript, and more.

    Et ChatGPT4 en accès direct (données en ligne)

  • 1 Votes
    1 Posts
    22 Views

    Les failles de sécurité dans le code sont le cauchemar des développeurs et des équipes de sécurité et font surtout le régal des hackers. Alors pour y remédier, GitHub a décidé de sortir l’artillerie lourde avec Code Scanning Autofix ! Attention les yeux, cet outil mêle IA et analyse statique et nous fait la promesse de corriger les vulnérabilités en un clin d’œil pendant que vous codez.

    Concrètement, Code Scanning Autofix (actuellement en bêta publique) est activé par défaut sur tous les dépôts privés des clients GitHub Advanced Security. Et devinez quoi ? Il gère déjà plus de 90% des types d’alertes pour JavaScript, TypeScript, Java et Python. De quoi mettre une sacrée claque à la dette de sécurité applicative !

    En coulisse, cette magie opère grâce à deux technologies de pointe made in GitHub : Copilot pour l’IA et CodeQL pour l’analyse statique. Une fois Code Scanning Autofix activé, il vous propose des correctifs quasi tout cuits qui sont censés régler les deux tiers des vulnérabilités détectées, le tout sans trop d’efforts de votre part.

    Voici un exemple de correctif proposé :

    Pour chaque faille repérée dans un des langages pris en charge, vous obtenez une explication en langage naturel du correctif suggéré, avec un aperçu du bout de code à valider, modifier ou rejeter. Cela peut inclure des changements dans le fichier en cours, d’autres fichiers, voire des dépendances du projet. Bien entendu, vous gardez le contrôle et pouvez vérifier si le correctif résout bien le problème sans casser la fonctionnalité.

    L’intérêt est donc de décharger les experts en sécurité de la fastidieuse traque aux vulnérabilités introduites pendant le développement. Ils pourront alors se concentrer sur la sécurité globale de leur projet.

    GitHub promet d’étendre prochainement Code Scanning Autofix à d’autres langages, en commençant par C# et Go. Et pour en savoir plus, foncez sur la doc de GitHub !

    –Sources :

    https://korben.info/github-revolutionne-correction-vulnerabilites-code-scanning-autofix.html

    https://www.bleepingcomputer.com/news/security/githubs-new-ai-powered-tool-auto-fixes-vulnerabilities-in-your-code/

    https://docs.github.com/en/code-security/code-scanning/managing-code-scanning-alerts/about-autofix-for-codeql-code-scanning

  • 2 Votes
    8 Posts
    99 Views

    Mike Horn Monster GIF

    @duJambon Peut-être que bien grillé sur un feu de bois donnerait plus de goût ? Faut demander à Mike 😉

  • 3 Votes
    5 Posts
    137 Views

    @7cf148fd Des voleurs yen a partout, à part peut être le Japon 😏

  • 0 Votes
    3 Posts
    73 Views

    Ça plus les maladies qui avaient disparues et qui reviennent ça va pas aider

  • 2 Votes
    2 Posts
    82 Views

    Avouez que ça vous interPELLE :bye_sans_dent: :clac:

  • 0 Votes
    9 Posts
    119 Views

    Je crois que c’était un PoC pour Huawei. Sur Android ça n’arrive en effet qu’après iOS. De là à dire qu’Android copie iOS… lol
    Depuis le 1er iPhone, hélas, Apple n’innove plus des masses… Mais, perso, +1 point pour la légèreté du 15 pro Max vs le 14.

  • 0 Votes
    3 Posts
    34 Views

    Bientôt ghost in the shell 🥹

  • 4 Votes
    1 Posts
    81 Views

    VLC confirme que la possibilité de regarder la télévision depuis le lecteur pourrait être ajoutée. La fonctionnalité est à l’étude pour profiter des FAST channels comme les chaînes Mango ou Rakuten TV.

    VLC, c’est un millésime utilisé par des millions de personnes dans le monde, un véritable petit bijou qui prend en charge la technologie RTX Video Super Resolution de Nvidia depuis peu. Et prochainement, ce logiciel âgé de deux décennies pourrait profiter d’une nouvelle fonctionnalité : regarder des chaînes de télévision en streaming.

    La télévision depuis VLC pour viser “la jeune génération”

    Jean-Baptiste Kempf, président de VideoLAN à qui l’on doit le lecteur VLC qui a commencé comme un projet étudiant, s’est exprimé sur le futur au micro de Lowpass. Parmi les nouveautés, on s’attend à une app dédiée pour l’Apple Vision Pro mais surtout la possibilité de streamer de la télévision. Selon lui, il s’agit d’une fonctionnalité particulièrement attendue par “la jeune génération”.

    Attention, il ne s’agit pas de visionner TF1, M6 ou France Télévisions comme le permet Molotov TV, par exemple. Les utilisateurs pourront regarder la télévision en streaming avec de la publicité pour le financement. On parle de FAST channels (Free Ad-supported TV) comme Mango Cinéma, Doc, Kids, Séries, Novelas et Histoire ou encore Rakuten TV.

    Autre précision, Jean-Baptiste Kempf annonce que cette possibilité n’est pas encore confirmée. VLC l’envisage mais rien n’est sûr, peut-être que la fonctionnalité n’arrivera jamais pour le lecteur. Et si c’est le cas, elle sera optionnelle, bien évidemment.

    VLC, un succès qui remonte à 1996

    La première version de VLC remonte à 1996 et cocorico, VideoLAN vient de France ! Si le lecteur est aussi apprécié, c’est pour sa simplicité d’utilisation et sa capacité à lire une grande variété de formats de médias sans complications. L’interface utilisateur est intuitive pour naviguer et personnaliser l’expérience de visionnage à sa guise. L’exemple le plus courant, c’est la possibilité de synchroniser des sous-titres décalés.

    Ce logiciel tout-en-un pour lire des médias sur n’importe quel appareil (Windows, macOS, Android, etc), gratuitement et sans publicité, participe largement à son succès. Ce qui explique ses 5 milliards de téléchargements, rien que ça.

    – Source :

    https://www.tomsguide.fr/vlc-regarder-gratuitement-la-television-en-streaming-ce-serait-bientot-possible/

  • 0 Votes
    21 Posts
    297 Views

    Nintendo a tué le projet dans l’œuf. Le géant du jeu vidéo n’a même pas eu besoin de porter plainte, il lui a suffit d’écrire un courrier d’un type un peu spécial à GitLab, l’hébergeur de Suyu. Invoquant la violation du Digital Millennium Copyright Act (DMCA) par les auteurs de Suyu, Nintendo a sommé GitLab de couper l’accès à l’émulateur. La plateforme s’est exécutée et a bloqué le compte des développeurs.

    https://www.tomsguide.fr/nintendo-se-debarrasse-dun-emulateur-de-switch-de-plus-sans-meme-porter-plainte/

    –> No panic, vous pouvez le retrouver ailleurs avec une ext en “nom .dev”

  • 2 Votes
    1 Posts
    33 Views

    La collecte et la gestion des données d’utilisateurs sur Internet sont des sujets récurrents et les Big Tech y sont souvent pointés du doigt pour leur manque de transparence. D’autres acteurs du domaine pensent toutefois à faire bouger les choses notamment avec la construction d’un nouveau Web3.

    Le monopole des Big Tech

    Le monopole des Big Tech a été favorisé surtout par l’écosystème du web traditionnel qui leur donne un contrôle absolu. Les créateurs du Web3 se rendent d’ailleurs compte que ce contrôle est tellement excessif en raison de son aspect centralisé. Tegan Kline, PDG et co-fondateur d’Edge & Node, une entreprise impliquée dans la construction du Web3 s’est d’ailleurs confié récemment au média TechCrunch sur le sujet.

    En effet, ce dernier a expliqué lors d’un podcast la façon dont les Big Tech exercent ce contrôle. “Une poignée de grandes entreprises possède et contrôle tout ce que nous voyons en ligne, elles possèdent nos données et notre empreinte numérique et beaucoup veulent garder notre attention et monétisent cette attention” a-t-il déclaré.

    Il précise également que les ambitions initiales du web ont été détournées, mais les choses pourraient évoluer avec la détermination de quelques acteurs, dont Edge & Node. Pour précision, cette dernière est une société spécialisée dans la création et la prise en charge d’applications et de protocoles décentralisés.

    Ce que le réseau The Graph pourrait changer

    Le changement pourrait venir alors de The Graph, une plateforme décentralisée soutenue par Edge & Node. Celle-ci se base entre autres sur une intégration Web3 et IA et l’objectif est clair : “redonner le pouvoir aux utilisateurs”. Pour ce faire, The Graph devrait donc indexer, interroger et organiser les données. Surnommé le « Google du web3 », il aura ainsi pour fonctions d’organiser les données ouvertes de la blockchain et de rendre les données ouvertes publiques.

    En outre, The Graph se présente comme un graphique composé de « sous-graphiques », qui servent à leur tour des requêtes comme des API ouvertes. Les utilisateurs des applications construites sur The Graph pourraient alors faire appel à des indexeurs à chaque requête. Celles-ci organiseront ensuite les données en arrière-plan avant de diffuser les informations.

    Par ailleurs, les recherches de Tegan Kline visent aussi à mettre de l’ordre dans le domaine de l’IA qui exploiterait massivement les données d’utilisateurs. “Il y a un dicton selon lequel celui qui contrôle les données gouverne le monde. Il est donc vraiment important que les données ne soient pas détenues et contrôlées par une seule entreprise, en particulier dans le domaine de l’IA.” précise-t-il.

    Kline voudrait donc qu’à l’arrivée, les IA soient basées sur des données open-source plutôt que de porter cette étiquette uniquement pour des raisons marketing. En réalité, leur utilisation est open-source, mais pas les données exploitées jusqu’ici.

    Source: https://www.fredzone.org/un-nouveau-reseau-web3-est-en-cours-de-construction-big-tech-rbc234

    J’imagine bien que pour faire couler le web 3, les torpilles sont déjà lancées…

  • 1 Votes
    7 Posts
    156 Views

    @mekas Effectivement si tu fais du partage DDl un débrideur ne sert à rien mais je n’avais pas cette info d’ou ma réponse à ton post. Good night.

    2c555f49-0884-4629-b60b-207fc55a1272-Live Long & Prosper.jpg 

  • 2 Votes
    9 Posts
    144 Views

    Tout a fait : Fortiche Production 👍

  • 0 Votes
    1 Posts
    45 Views

    La correction du canal secondaire nouvellement découverte (voir aussi: https://planete-warez.net/topic/4601/les-pirates-peuvent-forcer-les-navigateurs-ios-et-macos-à-divulguer-les-mots-de-passe-et-bien-plus-encore?_=1711098143319) aura probablement un impact négatif sur les performances.

    Une vulnérabilité récemment découverte dans les puces de la série M d’Apple permet aux attaquants d’extraire les clés secrètes des Mac lorsqu’ils effectuent des opérations cryptographiques largement utilisées, ont révélé des chercheurs universitaires dans un article publié jeudi.

    La faille – un canal secondaire permettant des extractions de clés de bout en bout lorsque les puces Apple exécutent des implémentations de protocoles cryptographiques largement utilisés – ne peut pas être corrigée directement car elle découle de la conception microarchitecturale du silicium lui-même. Au lieu de cela, il ne peut être atténué qu’en intégrant des défenses dans des logiciels cryptographiques tiers qui pourraient dégrader considérablement les performances de la série M lors de l’exécution d’opérations cryptographiques, en particulier sur les générations M1 et M2 précédentes. La vulnérabilité peut être exploitée lorsque l’opération cryptographique ciblée et l’application malveillante dotée des privilèges système utilisateur normaux s’exécutent sur le même cluster de processeurs.

    Méfiez-vous des optimisations matérielles

    La menace réside dans le prérécupérateur de données dépendant de la mémoire des puces, une optimisation matérielle qui prédit les adresses mémoire des données auxquelles le code en cours d’exécution est susceptible d’accéder dans un avenir proche. En chargeant le contenu dans le cache du processeur avant qu’il ne soit réellement nécessaire, le DMP, comme la fonctionnalité est abrégée, réduit la latence entre la mémoire principale et le processeur, un goulot d’étranglement courant dans l’informatique moderne. Les DMP sont un phénomène relativement nouveau que l’on retrouve uniquement dans les puces de la série M et dans la microarchitecture Intel Raptor Lake de 13e génération, bien que les anciennes formes de prélecture soient courantes depuis des années.

    Les experts en sécurité savent depuis longtemps que les prélecture classiques ouvrent un canal secondaire que les processus malveillants peuvent sonder pour obtenir des clés secrètes à partir d’opérations cryptographiques. Cette vulnérabilité est le résultat du fait que les préchargeurs effectuent des prédictions basées sur des modèles d’accès précédents, ce qui peut créer des changements d’état que les attaquants peuvent exploiter pour divulguer des informations. En réponse, les ingénieurs en cryptographie ont conçu une programmation en temps constant, une approche qui garantit que toutes les opérations prennent le même temps, quels que soient leurs opérandes . Pour ce faire, il maintient le code exempt d’accès ou de structures mémoire dépendant d’un secret.

    L’avancée de la nouvelle recherche est qu’elle expose un comportement jusqu’alors négligé des DMP dans le silicium Apple : ils confondent parfois le contenu de la mémoire, tel que les éléments clés, avec la valeur du pointeur utilisée pour charger d’autres données. En conséquence, le DMP lit souvent les données et tente de les traiter comme une adresse pour effectuer un accès à la mémoire. Ce « déréférencement » des « pointeurs » – c’est-à-dire la lecture de données et leur fuite via un canal secondaire – est une violation flagrante du paradigme du temps constant.

    L’équipe de chercheurs est composée de :

    Boru Chen, Université de l’Illinois Urbana-Champaign Yingchen Wang, Université du Texas à Austin Pradyumna Shome, Institut de technologie de Géorgie Christopher W. Fletcher, Université de Californie, Berkeley David Kohlbrenner, Université de Washington Riccardo Paccagnella, Université Carnegie Mellon Daniel Genkin, Institut de technologie de Géorgie

    Dans un e-mail, ils ont expliqué :

    Les préfetchers examinent généralement les adresses des données consultées (en ignorant les valeurs des données consultées) et tentent de deviner les futures adresses qui pourraient être utiles. Le DMP est différent en ce sens car en plus des adresses, il utilise également les valeurs des données afin de faire des prédictions (prédire les adresses auxquelles aller et pré-extraire). En particulier, si une valeur de données « ressemble » à un pointeur, elle sera traitée comme une « adresse » (alors qu’en fait ce n’est pas le cas !) et les données de cette « adresse » seront amenées dans le cache. L’arrivée de cette adresse dans le cache est visible, fuite via les canaux côté cache.

    Notre attaque exploite ce fait. Nous ne pouvons pas divulguer directement les clés de chiffrement, mais ce que nous pouvons faire, c’est manipuler les données intermédiaires à l’intérieur de l’algorithme de chiffrement pour ressembler à un pointeur via une attaque d’entrée choisie. Le DMP voit alors que la valeur des données « ressemble » à une adresse et introduit les données de cette « adresse » dans le cache, ce qui entraîne la fuite de « l’adresse ». Nous ne nous soucions pas de la prélecture de la valeur des données, mais le fait que les données intermédiaires ressemblent à une adresse est visible via un canal de cache et suffit à révéler la clé secrète au fil du temps.

    Dans le journal de jeudi, l’équipe l’a expliqué légèrement différemment :

    Notre idée clé est que même si le DMP déréférence uniquement les pointeurs, un attaquant peut créer des entrées de programme de telle sorte que lorsque ces entrées se mélangent avec des secrets cryptographiques, l’état intermédiaire résultant peut être conçu pour ressembler à un pointeur si et seulement si le secret satisfait un attaquant. prédicat choisi. Par exemple, imaginez qu’un programme ait un secret s, prenne x comme entrée, calcule puis stocke y = s ⊕ x dans sa mémoire de programme. L’attaquant peut créer différents x et déduire des informations partielles (voire complètes) sur s en observant si le DMP est capable de déréférencer y. Nous utilisons d’abord cette observation pour briser les garanties d’une primitive standard d’échange à temps constant recommandée pour une utilisation dans les implémentations cryptographiques. Nous montrons ensuite comment briser des implémentations cryptographiques complètes conçues pour être sécurisées contre les attaques à entrée choisie.

    Plus de détails sur GoFetch

    L’attaque, que les chercheurs ont nommée GoFetch , utilise une application qui ne nécessite pas d’accès root, mais uniquement les mêmes privilèges utilisateur requis par la plupart des applications tierces installées sur un système macOS. Les puces de la série M sont divisées en ce que l’on appelle des clusters. Le M1, par exemple, dispose de deux clusters : l’un contenant quatre cœurs d’efficacité et l’autre quatre cœurs de performances. Tant que l’application GoFetch et l’application de cryptographie ciblée s’exécutent sur le même cluster de performances (même sur des cœurs distincts au sein de ce cluster), GoFetch peut extraire suffisamment de secrets pour divulguer une clé secrète.

    L’attaque fonctionne à la fois contre les algorithmes de chiffrement classiques et contre une nouvelle génération de chiffrement renforcée pour résister aux attaques anticipées des ordinateurs quantiques. L’application GoFetch nécessite moins d’une heure pour extraire une clé RSA de 2 048 bits et un peu plus de deux heures pour extraire une clé Diffie-Hellman de 2 048 bits. L’attaque prend 54 minutes pour extraire le matériel nécessaire à l’assemblage d’une clé Kyber-512 et environ 10 heures pour une clé Dilithium-2, sans compter le temps hors ligne nécessaire au traitement des données brutes.

    L’application GoFetch se connecte à l’application ciblée et lui transmet des entrées qu’elle signe ou décrypte. Ce faisant, il extrait la clé secrète de l’application qu’il utilise pour effectuer ces opérations cryptographiques. Ce mécanisme signifie que l’application ciblée n’a pas besoin d’effectuer seule aucune opération cryptographique pendant la période de collecte.

    Les clés RSA et Diffie-Hellman ont été traitées sur des implémentations de Go et OpenSSL et Kyber et Dilithium de CRYSTALS-Kyber et CRYSTALS-Dilithium. Les quatre implémentations utilisent une programmation en temps constant, prouvant que les DMP du silicium Apple déjouent la défense largement déployée.

    61086927-536b-489c-880a-529a7a6fde5a-image.png

    ésultats expérimentaux de quatre PoC d’attaque cryptographique. Cela montre la moyenne de trois exécutions de chaque PoC. Le temps en ligne fait référence au temps requis pour un processus d’attaquant colocalisé, qui comprend (1) la génération d’ensembles d’expulsion standard ; (2) découverte d’un ensemble d’expulsions composées ; et (3) fuite de DMP. Le temps hors ligne est le temps de post-traitement (par exemple, réduction du réseau) nécessaire pour terminer la récupération de la clé secrète. Le temps nécessaire à la phase de collecte de signatures hors ligne de Dilithium-2 n’est pas inclus.

    GoFetch n’est pas la première fois que des chercheurs identifient des menaces cachées dans les DMP Apple. L’optimisation a été documentée pour la première fois dans une recherche de 2022 qui a découvert un « DMP de poursuite de pointeur » jusqu’alors inconnu dans le M1 et dans la puce A14 Bionic d’Apple pour les iPhones. La recherche, menée par un autre groupe d’universitaires, a donné naissance à Augury , une attaque qui a identifié et exploité un canal secondaire de mémoire qui a divulgué des pointeurs. En fin de compte, Augury n’a pas pu mélanger les données et les adresses lorsque des pratiques en temps constant étaient utilisées, une lacune qui a pu donner l’impression que le DMP ne représentait pas une grande menace.

    “GoFetch montre que le DMP est nettement plus agressif qu’on ne le pensait et pose donc un risque de sécurité beaucoup plus important”, ont écrit les auteurs de GoFetch sur leur site Internet. « Plus précisément, nous constatons que toute valeur chargée depuis la mémoire est susceptible d’être déréférencée (littéralement !). Cela nous permet de contourner de nombreuses limitations d’Augury et de démontrer des attaques de bout en bout sur du code réel en temps constant.

    Des performances pénalisantes

    Comme les autres canaux microarchitecturaux latéraux du processeur, celui qui rend GoFetch possible ne peut pas être corrigé dans le silicium. Au lieu de cela, la responsabilité d’atténuer les effets néfastes de la vulnérabilité incombe aux personnes qui développent le code pour le matériel Apple. Pour les développeurs de logiciels cryptographiques fonctionnant sur des processeurs M1 et M2, cela signifie qu’en plus de la programmation en temps constant, ils devront recourir à d’autres défenses, qui entraînent presque toutes des pénalités de performances importantes.

    L’une des mesures d’atténuation les plus efficaces, connue sous le nom d’aveuglement du texte chiffré, en est un bon exemple. L’aveuglement fonctionne en ajoutant/supprimant des masques aux valeurs sensibles avant/après avoir été stockées/chargées depuis la mémoire. Cela rend effectivement aléatoire l’état interne de l’algorithme cryptographique, empêchant l’attaquant de le contrôler et neutralisant ainsi les attaques GoFetch. Malheureusement, selon les chercheurs, cette défense est à la fois spécifique à l’algorithme et souvent coûteuse, pouvant même doubler les ressources informatiques nécessaires dans certains cas, comme pour les échanges de clés Diffie-Hellman.

    Une autre défense consiste à exécuter des processus cryptographiques sur les cœurs d’efficacité mentionnés précédemment, également appelés cœurs Icestorm, qui ne disposent pas de DMP. Une approche consiste à exécuter tout le code cryptographique sur ces cœurs. Cette défense n’est pas non plus idéale. Non seulement il est possible que des modifications inopinées ajoutent des fonctionnalités DMP aux cœurs d’efficacité, mais l’exécution de processus cryptographiques ici augmentera également probablement le temps nécessaire pour terminer les opérations dans une marge non négligeable. Les chercheurs évoquent plusieurs défenses ponctuelles, mais elles sont tout aussi problématiques.

    Le DMP du M3, la dernière puce d’Apple, possède un élément spécial que les développeurs peuvent invoquer pour désactiver la fonctionnalité. Les chercheurs ne savent pas encore quel type de pénalité se produira lorsque cette optimisation des performances sera désactivée. (Les chercheurs ont noté que le DMP trouvé dans les processeurs Intel Raptor Lake ne divulgue pas les mêmes types de secrets cryptographiques. De plus, la définition d’un bit DOIT spécial désactive également efficacement le DMP.)

    Les lecteurs doivent se rappeler que les sanctions qui en résulteront ne seront ressenties que lorsque le logiciel concerné effectue des opérations cryptographiques spécifiques. Pour les navigateurs et de nombreux autres types d’applications, le coût en termes de performances peut ne pas être perceptible.

    “À plus long terme, nous pensons que la bonne solution consiste à élargir le contrat matériel-logiciel pour tenir compte du DMP”, ont écrit les chercheurs. « Au minimum, le matériel doit offrir au logiciel un moyen de désactiver sélectivement le DMP lors de l’exécution d’applications critiques pour la sécurité. Cela constitue déjà un précédent dans l’industrie. d’Intel Par exemple, les extensions DOIT mentionnent spécifiquement la désactivation de leur DMP via une extension ISA. À plus long terme, on souhaiterait idéalement un contrôle plus fin, par exemple pour contraindre le DMP à effectuer une prélecture uniquement à partir de tampons spécifiques ou de régions de mémoire non sensibles désignées.

    Les représentants d’Apple ont refusé de commenter officiellement la recherche GoFetch.

    Les utilisateurs finaux concernés doivent rechercher les mises à jour d’atténuation GoFetch disponibles pour les logiciels macOS qui implémentent l’un des quatre protocoles de chiffrement connus pour être vulnérables. Par prudence, il est probablement également sage de supposer, du moins pour l’instant, que d’autres protocoles cryptographiques sont probablement également sensibles.

    “Malheureusement, pour évaluer si une implémentation est vulnérable, une cryptanalyse et une inspection du code sont nécessaires pour comprendre quand et comment les valeurs intermédiaires peuvent ressembler à des pointeurs de manière à divulguer des secrets”, ont conseillé les chercheurs. “Ce processus est manuel et lent et n’exclut pas d’autres approches d’attaque.”

    Source: https://arstechnica.com/security/2024/03/hackers-can-extract-secret-encryption-keys-from-apples-mac-chips/

  • 1 Votes
    827 Posts
    13k Views
    Jack Black (Tenacious D) : Baby One More Time 😆

    Gros délire de Jack Black (Tenacious D)

  • 2 Votes
    6 Posts
    134 Views

    @7cf148fd J’aime beaucoup la photo de l’ancien quartier Français, s’il n’y avait pas le panneau et surtout les clims en façade, on pourrait croire à un anachronisme. 🙂

    Les autres photos sont très intéressantes, mais je me demande combien Huawei a investi dépensé dans un truc aussi colossal, même si ce n’est pas de la vraie pierre ou du vrai bois… 🙂 ça fait sacrément réfléchir.

    Edit: Finalement, taraudé par la curiosité, j’ai trouvé pas mal de réponses dans Wikipédia

    https://fr.wikipedia.org/wiki/Campus_Huawei_Ox_Horn

  • 0 Votes
    43 Posts
    487 Views

    @Ashura Oui effectivement mais plein de soucis. Je devais relancer Kodi voir la shield car l’image était saturée en en “lumineux”. Depuis Plex (et j’étais pas pour Plex) plus de soucis ou bug.