Actualités High-Tech

1.2k Topics 6.0k Posts
  • 2 Votes
    6 Posts
    131 Views

    Manque de testo ? Trop de soja ?

    C’est le contraire qui faut faire, ils ont rien compris 😂

  • 4 Votes
    12 Posts
    142 Views

    En fait, pour cette histoire de son… C’est assez fou parce que on entendait rien dans les dernières courses que j’ai zieuté. En gros, t’entendais les dérapages des skieuses, les divers sons des gens autour de la piste et parfois, un de ces “Bzzzzz” caractéristique de ces drones pendant quelques femtosecondes.
    Cette technique d’isoler le son de la bête et de l’enlever est assez barge. ça doit être pour les athlètes pour qui ces frelons doivent être pénibles.

    Sinon, oui… il doit y avoir quelques batteries qui se rechargent vite et quelques drones de réserve.

  • 3 Votes
    17 Posts
    228 Views

    moi, cette histoire me fait penser à la chanson de Talk Talk - Such a Shame

    un de mes clips préférés, soit dit en passant ^^

  • Tentatives de Phishing

    39
    2 Votes
    39 Posts
    2k Views
    Arnaque au faux conseiller bancaire : “C’est plus simple que vendre du shit”, un escroc raconte les dessous du piratage

    573e19b6-becc-40dd-93b1-5a17a584c76e-image.png

    Comment des escrocs peuvent-ils tromper les clients de différentes banques, en maîtrisant le moindre détail de leur adresse et de leur civilité? L’un d’eux nous livre les ficelles d’un juteux business, qui séduit des arnaqueurs de plus en plus jeunes.

    Au petit jeu des arnaques aux faux conseillers bancaires, les escrocs ne sont jamais seuls à tirer les ficelles. Si une personne peut se faire passer pour un faux conseiller bancaire, c’est qu’elle a pu se procurer les informations personnelles soutirées, en ligne, par un autre hacker. “Il y a souvent quatre coupables, qui ne se connaissent pas”, explique ainsi un homme, qui prétend avoir observé de très près le ballet des faux conseillers bancaires.

    La première étape est le “spoofing”. Par le biais d’un SMS frauduleux, un hacker parvient à mettre la main sur vos données personnelles. "Le plus courant, ce sont les fausses amendes de stationnement, issues d’une interface reproduisant la plateforme gouvernementale ANTAI à la perfection. Pour ne pas payer une amende forfaitaire majorée, les victimes payent en ligne indiquant leur nom, prénom, adresse et livrant également le numéro de leur carte bancaire, sa date d’expiration et son précieux cryptogramme.

    Vend coordonnées bancaires sur Internet

    Ce sont ces données que le hacker va monétiser sur Internet, et à en croire notre source, les récupérer est un jeu d’enfants et ne coûterait qu’une vingtaine d’euros, sur des groupes privés, en ligne. Un business alléchant qui attirerait de plus en plus de mineurs, bien souvent collégiens, qui voient là une façon facile, et peu chère de se faire de l’argent. “C’est plus simple que vendre du shit”, ironise l’arnaqueur. On l’a vu, dans l’actualité, de nombreux jeunes ont récemment été interpellés, soupçonnés d’être à la tête d’un trafic informatique, depuis leur chambre.

    En possession des coordonnées personnelles et des numéros de carte bleue, ces pirates ont le champ libre pour piéger leurs victimes et ils savent très bien qui viser. “Si la personne répond au SMS, on sait déjà qu’elle peut tomber dans le piège, on cible les personnes faibles”, confie le “spécialiste”. Il faut ensuite savoir inquiéter la personne tout en la mettant en confiance, poursuit ce dernier. Dire qu’il y a urgence, mais que si la victime fait ce qu’il faut, il n’y aura aucun problème…

    Des virements directs

    “Il faut dire que le paiement qu’ils doivent valider sur leur application bancaire n’est qu’une empreinte bancaire, qu’elle permet l’annulation de la transaction, ce qui est faux. Au bout du fil, l’escroc procède au paiement”, détaille notre source. Ce dernier révèle même qu’une nouvelle forme d’arnaque se développe, elle permet des virements instantanés sur le compte des faux conseillers bancaires. “On dit que leur compte est infecté et qu’il faut le sécuriser. Ils virent alors leurs fonds sur ce qu’on appelle un livret de sécurité. Mais il s’agit en fait de notre compte bancaire…”, explique notre témoin.

    “Il ne faut pas imaginer qu’il y a une mafia organisée derrière tout ça”, commente-t-il. “Simplement des personnes douées en informatique qui soutirent des données personnelles et d’autres, qui saisissent l’opportunité de les acheter, et de les utiliser”.

    Source: https://www.ladepeche.fr/2024/03/10/arnaque-au-faux-conseiller-bancaire-cest-plus-simple-que-vendre-du-shit-un-escroc-raconte-les-dessous-du-piratage-11810725.php

  • 2 Votes
    2 Posts
    81 Views

    Bravo même Microsoft qui se font pirater des comme des bleus

  • 2 Votes
    2 Posts
    61 Views

    Ça fait un moment qu’on peut utiliser simple login ou c’est juste le fait que ça soit intégré direct à ProtonMail ?

  • 3 Votes
    5 Posts
    123 Views

    @Raccoon OpenBSD ? :ahah:

  • 2 Votes
    1 Posts
    53 Views

    La 2G n’est pas encore morte, mais les services à distance des premières voitures électriques de Nissan tirent leur révérence. Il ne sera plus possible de contrôler certaines de leurs fonctions depuis l’application mobile du constructeur à partir du 1er avril 2024.

    Mauvaise nouvelle pour les propriétaires de Nissan Leaf et e-NV200 produits avant 2016, les services à distance qui permettaient de contrôler certaines de leurs fonctions depuis l’application NissanConnect EV ne seront plus supportés à partir du 1er avril 2024.

    L’information a d’abord été communiquée à la BBC pour le marché britannique, et Nissan nous a confirmé que cette date était aussi valable en France.

    La possibilité de programmer la charge de sa voiture et de préchauffer l’habitacle à distance étaient des arguments de taille des premières voitures électriques de Nissan, que l’on retrouve aujourd’hui chez presque tous les constructeurs.

    Nissan précise qu’il sera toujours possible d’accéder à ces fonctions de programmation depuis l’écran central de la voiture, mais plus depuis son smartphone.

    Vers des fins de support en cascade chez les premières voitures connectées ?

    Avec la fin du support des services à distance de ses premières voitures électriques, Nissan anticipe l’arrêt du réseau 2G. Il s’agit donc d’un problème plus global touchant entre autres l’automobile ; secteur qui n’a jamais été connu pour être particulièrement à la pointe en matière de connectivité. Les premières voitures connectées, comme les Nissan électriques d’avant 2016, s’appuyaient ainsi pour la plupart sur une connexion 2G seulement. C’était aussi le cas des premières Renault Zoe, par exemple, pour leurs services à distance Z.E. Connect.

    On risque donc d’assister à une vague d’arrêts du support de ces fonctions dans l’automobile, parmi de nombreux autres objets connectés mis à l’écart. Les voitures connectées équipées de connexion 3G ont encore quelques années de répit, comme les premières Tesla Model S et BMW i3. Tesla propose par ailleurs de mettre à niveau ses voitures avec un modem LTE.

    Pour rappel, la 2G sera entièrement abandonnée en France d’ici à la fin de l’année 2025. La 3G fera ensuite ses adieux en 2028.

    Source: https://www.lesnumeriques.com/voiture-electrique/nissan-coupera-les-services-connectes-de-ses-premieres-voitures-electriques-le-1er-avril-n219259.html

  • 1 Votes
    2 Posts
    71 Views

    Ça aura pas duré longtemps

  • 0 Votes
    9 Posts
    84 Views

    @duJambon attendons de voir les prix, et vu la taille yaura pas besoin d’en acheter plein

  • 0 Votes
    4 Posts
    89 Views

    Bonjour, je pense plus à des actualités catastrophe, remarque que si c’est poutine qui prend l’avion, si c’est vraiment une IA, elle le ferait crashée

  • 1 Votes
    5 Posts
    73 Views

    Il y a pas plus urgent que la commission européenne devrait régler? Et qu’en est il de l’encaissement de ces dites amendes? Et surtout ce quelles financent.

  • 0 Votes
    1 Posts
    36 Views

    Willison : “Aucun modèle n’a battu GPT-4 sur une gamme de tests largement utilisés comme celui-ci.”

    3a657437-6eed-46f3-8412-26503619b590-image.png
    Le logo Anthropic Claude 3.

    Lundi, Anthropic a publié Claude 3, une famille de trois modèles de langage d’IA similaires à ceux qui alimentent ChatGPT . Anthropic affirme que les modèles établissent de nouvelles références industrielles pour une gamme de tâches cognitives, se rapprochant même des capacités « quasi humaines » dans certains cas. Il est disponible dès maintenant sur le site Web d’Anthropic, le modèle le plus puissant étant uniquement disponible sur abonnement. Il est également disponible via API pour les développeurs.

    Les trois modèles de Claude 3 représentent une complexité et un nombre de paramètres croissants : Claude 3 Haiku, Claude 3 Sonnet et Claude 3 Opus. Sonnet alimente désormais gratuitement le chatbot Claude.ai avec une connexion par e-mail. Mais comme mentionné ci-dessus, Opus n’est disponible via l’interface de chat Web d’Anthropic que si vous payez 20 $ par mois pour « Claude Pro », un service d’abonnement proposé via le site Web d’Anthropic. Tous les trois disposent d’une fenêtre contextuelle de 200 000 jetons. (La fenêtre contextuelle correspond au nombre de jetons (fragments d’un mot) qu’un modèle de langage d’IA peut traiter à la fois.)

    Nous avons couvert le lancement de Claude en mars 2023 et de Claude 2 en juillet de la même année. À chaque fois, Anthropic s’est retrouvé légèrement en retrait des meilleurs modèles d’OpenAI en termes de capacités tout en les surpassant en termes de longueur de fenêtre contextuelle. Avec Claude 3, Anthropic a peut-être enfin rattrapé les modèles publiés par OpenAI en termes de performances, même s’il n’y a pas encore de consensus parmi les experts - et la présentation des benchmarks d’IA est notoirement encline à la sélection.

    a2255192-3531-4e51-94f4-d389b0efdb36-image.png
    Un tableau de référence Claude 3 fourni par Anthropic.

    Claude 3 aurait démontré des performances avancées dans diverses tâches cognitives, notamment le raisonnement, les connaissances spécialisées, les mathématiques et la maîtrise du langage. (Malgré l’absence de consensus sur la question de savoir si les grands modèles de langage « savent » ou « raisonnent », la communauté des chercheurs en IA utilise couramment ces termes.) La société affirme que le modèle Opus, le plus performant des trois, présente des « niveaux quasi-humains ». de compréhension et d’aisance sur des tâches complexes.

    C’est une affirmation assez entêtante et qui mérite d’être analysée avec plus d’attention. Il est probablement vrai qu’Opus est « quasi-humain » selon certains critères spécifiques, mais cela ne signifie pas qu’Opus est une intelligence générale comme un humain (considérez que les calculatrices de poche sont surhumaines en mathématiques). Il s’agit donc d’une affirmation volontairement accrocheuse qui peut être édulcorée par des réserves.

    Selon Anthropic, Claude 3 Opus bat GPT-4 sur 10 tests d’IA, dont MMLU (connaissances de premier cycle), GSM8K (mathématiques à l’école primaire), HumanEval (codage) et HellaSwag (connaissance commune), au nom coloré. Plusieurs des victoires sont très étroites, comme 86,8 pour cent pour Opus contre 86,4 pour cent sur un essai en cinq coups de MMLU, et certains écarts sont importants, comme 90,7 pour cent sur HumanEval par rapport aux 67,0 pour cent de GPT-4. Mais il est difficile de dire ce que cela pourrait signifier exactement pour vous en tant que client.

    “Comme toujours, les benchmarks LLM doivent être traités avec un peu de suspicion”, déclare le chercheur en IA Simon Willison , qui a parlé avec Ars à propos de Claude 3. "Les performances d’un modèle par rapport aux benchmarks ne vous disent pas grand-chose sur la façon dont le modèle ’ se sent "à utiliser. Mais cela reste une affaire énorme : aucun autre modèle n’a battu GPT-4 sur une gamme de tests de référence largement utilisés comme celui-ci. "

    Une large gamme de prix et de performances

    Par rapport à son prédécesseur, les modèles Claude 3 présentent des améliorations par rapport à Claude 2 dans des domaines tels que l’analyse, la prévision, la création de contenu, la génération de code et la conversation multilingue. Les modèles auraient également des capacités de vision améliorées, leur permettant de traiter des formats visuels tels que des photos, des graphiques et des diagrammes, similaires à GPT-4V (dans les versions d’abonnement de ChatGPT) et à Gemini de Google.

    6f4fa20c-b2af-4106-a68f-c4456a6af460-image.png
    Un tableau de référence Claude 3 des capacités de vision multimodale fourni par Anthropic.

    Anthropic souligne la vitesse et la rentabilité accrues des trois modèles par rapport aux générations précédentes et aux modèles concurrents. Opus (le plus grand modèle) coûte 15 $ par million de jetons d’entrée et 75 $ par million de jetons de sortie, Sonnet (le modèle intermédiaire) coûte 3 $ par million de jetons d’entrée et 15 $ par million de jetons de sortie, et Haiku (le modèle le plus petit et le plus rapide) coûte 0,25 $ par million de jetons d’entrée. million de jetons d’entrée et 1,25 $ par million de jetons de sortie. d’OpenAI En comparaison, le GPT-4 Turbo via API coûte 10 $ par million de jetons d’entrée et 30 $ par million de jetons de sortie. GPT-3.5 Turbo coûte 0,50 $ par million de jetons d’entrée et 1,50 $ par million de jetons de sortie.

    Lorsque nous avons interrogé Willison sur ses impressions sur les performances de Claude 3, il a répondu qu’il n’en avait pas encore eu une idée, mais que le prix API de chaque modèle avait immédiatement attiré son attention. “Le moins cher inédit semble radicalement compétitif”, déclare Willison. “La meilleure qualité est très chère.”

    Dans d’autres notes diverses, les modèles Claude 3 pourraient gérer jusqu’à 1 million de jetons pour certains clients (similaires à Gemini Pro 1.5 ), et Anthropic affirme que le modèle Opus a atteint un rappel presque parfait lors d’un test de référence sur cette taille de contexte massive, dépassant 99 pour cent de précision. En outre, la société affirme que les modèles Claude 3 sont moins susceptibles de refuser des invites inoffensives et font preuve d’une plus grande précision tout en réduisant les réponses incorrectes.

    Selon une fiche modèle publiée avec les modèles, Anthropic a obtenu les gains de capacités de Claude 3 en partie grâce à l’utilisation de données synthétiques dans le processus de formation. Les données synthétiques désignent les données générées en interne à l’aide d’un autre modèle de langage d’IA, et la technique peut servir à élargir la profondeur des données de formation pour représenter des scénarios qui pourraient manquer dans un ensemble de données récupérées. “La question des données synthétiques est un gros problème”, déclare Willison.

    a6786cf3-cb83-4fef-b117-cd8059771a5c-image.png
    Un tableau de référence Claude 3 fourni par Anthropic.

    Anthropic prévoit de publier des mises à jour fréquentes de la famille de modèles Claude 3 dans les mois à venir, ainsi que de nouvelles fonctionnalités telles que l’utilisation d’outils, le codage interactif et les « capacités agentiques avancées ». L’entreprise affirme qu’elle reste déterminée à garantir que les mesures de sécurité suivent le rythme des progrès en matière de performances de l’IA et que les modèles Claude 3 “présentent actuellement un potentiel négligeable de risque catastrophique”.

    Les modèles Opus et Sonnet sont désormais disponibles via l’API d’Anthropic, et Haiku suivra bientôt. Sonnet est également accessible via Amazon Bedrock et en avant-première privée sur Vertex AI Model Garden de Google Cloud.

    Un mot sur les benchmarks LLM

    Nous nous sommes inscrits à Claude Pro pour essayer Opus par nous-mêmes avec quelques tests informels. Opus semble similaire en termes de capacités à ChatGPT-4. Il ne peut pas écrire des blagues originales sur les papas (toutes semblent avoir été récupérées sur le Web), il est plutôt bon pour résumer des informations et composer du texte dans différents styles, il s’en sort plutôt bien dans l’analyse logique des problèmes de mots, et les confabulations semblent en effet relativement faibles. (mais nous en avons vu quelques-uns se glisser en posant des questions sur des sujets plus obscurs).

    Rien de tout cela n’est une réussite ou un échec définitif, et cela peut être frustrant dans un monde où les produits informatiques produisent généralement des chiffres précis et des références quantifiables. “Encore un autre cas de” vibrations “en tant que concept clé de l’IA moderne”, nous a expliqué Willison.

    6a172ffa-3e7b-4358-9a17-7ee0aecdc4c0-image.png

    0dee9b8b-8be5-4eec-bc5f-4350c3b96095-image.png

    Les benchmarks d’IA sont délicats car l’efficacité de tout assistant d’IA est très variable en fonction des invites utilisées et du conditionnement du modèle d’IA sous-jacent. Les modèles d’IA peuvent donner de bons résultats « au test » (pour ainsi dire), mais ne parviennent pas à généraliser ces capacités à de nouvelles situations.

    De plus, l’efficacité de l’assistant IA est très subjective (d’où les « vibrations » de Willison). En effet, il est difficile de quantifier (par exemple, dans une mesure de référence) qu’un modèle d’IA réussisse à faire ce que vous voulez faire, alors que la tâche que vous lui confiez peut être littéralement n’importe quelle tâche dans n’importe quel domaine intellectuel sur terre. Certains modèles fonctionnent bien pour certaines tâches et pas pour d’autres, et cela peut varier d’une personne à l’autre en fonction de la tâche et du style d’incitation.

    Cela vaut pour chaque grand modèle de langage proposé par des fournisseurs tels que Google, OpenAI et Meta, et pas seulement pour Claude 3. Au fil du temps, les gens ont découvert que chaque modèle avait ses propres particularités, et que les forces et les faiblesses de chaque modèle pouvaient être adoptées ou contournées en utilisant certaines techniques d’incitation. À l’heure actuelle, il semble que les principaux assistants d’IA s’installent dans une suite de fonctionnalités très similaires.

    Et donc, le point de tout cela est que quand Anthropic dit que Claude 3 peut surpasser GPT-4 Turbo, qui est actuellement encore largement considéré comme le leader du marché en termes de capacité générale et de faibles hallucinations, il faut prendre cela avec un peu de prudence. de sel ou une dose de vibrations. Si vous envisagez différents modèles, il est essentiel de tester personnellement chaque modèle pour voir s’il correspond à votre application, car il est probable que personne d’autre ne puisse reproduire l’ensemble exact des circonstances dans lesquelles vous l’utiliseriez.

    Cela vaut pour chaque grand modèle de langage proposé par des fournisseurs tels que Google, OpenAI et Meta, et pas seulement pour Claude 3. Au fil du temps, les gens ont découvert que chaque modèle avait ses propres particularités, et que les forces et les faiblesses de chaque modèle pouvaient être adoptées ou contournées en utilisant certaines techniques d’incitation. À l’heure actuelle, il semble que les principaux assistants d’IA s’installent dans une suite de fonctionnalités très similaires.

    Et donc, le point de tout cela est que quand Anthropic dit que Claude 3 peut surpasser GPT-4 Turbo, qui est actuellement encore largement considéré comme le leader du marché en termes de capacité générale et de faibles hallucinations, il faut prendre cela avec un peu de prudence. de sel ou une dose de vibrations. Si vous envisagez différents modèles, il est essentiel de tester personnellement chaque modèle pour voir s’il correspond à votre application, car il est probable que personne d’autre ne puisse reproduire l’ensemble exact des circonstances dans lesquelles vous l’utiliseriez.

    Source: https://arstechnica.com/information-technology/2024/03/the-ai-wars-heat-up-with-claude-3-claimed-to-have-near-human-abilities/

    Le terme Intelligence artificielle devrait être définitivement banni pour les modèles prédictifs.

  • 1 Votes
    1 Posts
    35 Views

    Les pirates informatiques soutenus par le gouvernement nord-coréen ont remporté une victoire majeure lorsque Microsoft a laissé un logiciel Windows Zero Day sans correctif pendant six mois après avoir appris qu’il était activement exploité.

    Même après que Microsoft ait corrigé la vulnérabilité le mois dernier, la société n’a pas mentionné que le groupe nord-coréen Lazarus utilisait cette vulnérabilité depuis au moins août pour installer un rootkit furtif sur des ordinateurs vulnérables. Cette vulnérabilité offrait un moyen simple et furtif aux logiciels malveillants qui avaient déjà obtenu les droits d’administration du système d’interagir avec le noyau Windows. Lazarus a utilisé cette vulnérabilité précisément pour cela. Malgré cela, Microsoft affirme depuis longtemps que de telles élévations de l’administrateur au noyau ne représentent pas le franchissement d’une frontière de sécurité, une explication possible du temps mis par Microsoft pour corriger la vulnérabilité.

    Un rootkit « Saint Graal »

    “En matière de sécurité Windows, la frontière est mince entre l’administrateur et le noyau”, a expliqué la semaine dernière Jan Vojtěšek, chercheur de la société de sécurité Avast. de Microsoft « Les critères de sécurité affirment depuis longtemps que « [l]'administrateur vers le noyau ne constitue pas une limite de sécurité », ce qui signifie que Microsoft se réserve le droit de corriger les vulnérabilités de l’administrateur vers le noyau à sa propre discrétion. Par conséquent, le modèle de sécurité de Windows ne garantit pas qu’il empêchera un attaquant de niveau administrateur d’accéder directement au noyau.

    La politique de Microsoft s’est avérée être une aubaine pour Lazarus en installant « FudModule », un rootkit personnalisé qui, selon Avast, était exceptionnellement furtif et avancé. Les rootkits sont des logiciels malveillants qui ont la capacité de cacher leurs fichiers, processus et autres fonctionnements internes au système d’exploitation lui-même tout en contrôlant les niveaux les plus profonds du système d’exploitation. Pour fonctionner, ils doivent d’abord obtenir des privilèges administratifs, une réussite majeure pour tout malware infectant un système d’exploitation moderne. Ensuite, ils doivent franchir un autre obstacle : interagir directement avec le noyau, le recoin le plus profond d’un OS réservé aux fonctions les plus sensibles.

    Au cours des années passées, Lazarus et d’autres groupes malveillants ont atteint ce dernier seuil principalement en exploitant des pilotes système tiers, qui, par définition, ont déjà accès au noyau. Pour fonctionner avec les versions prises en charge de Windows, les pilotes tiers doivent d’abord être signés numériquement par Microsoft pour certifier qu’ils sont dignes de confiance et répondent aux exigences de sécurité. Dans le cas où Lazarus ou un autre acteur malveillant a déjà surmonté l’obstacle de l’administration et identifié une vulnérabilité dans un pilote approuvé, ils peuvent l’installer et exploiter la vulnérabilité pour accéder au noyau Windows. Cette technique, connue sous le nom de BYOVD (apportez votre propre pilote vulnérable), a cependant un coût, car elle offre aux défenseurs de nombreuses possibilités de détecter une attaque en cours.

    La vulnérabilité exploitée par Lazarus, identifiée comme CVE-2024-21338, offrait beaucoup plus de furtivité que BYOVD car elle exploitait appid.sys, un pilote activant le service Windows AppLocker, préinstallé dans le système d’exploitation Microsoft. Avast a déclaré que de telles vulnérabilités représentaient le « Saint Graal », par rapport au BYOVD.

    En août, les chercheurs d’Avast ont envoyé à Microsoft une description de la faille, ainsi qu’un code de validation démontrant ce qu’il faisait lorsqu’il était exploité. Microsoft n’a corrigé la vulnérabilité que le mois dernier. Même alors, la divulgation de l’exploitation active du CVE-2024-21338 et des détails du rootkit Lazarus n’est pas venue de Microsoft en février mais d’Avast 15 jours plus tard. Un jour plus tard, Microsoft a mis à jour son bulletin de correctif pour noter l’exploitation.

    On ne sait pas exactement ce qui a causé le retard ou l’absence initiale de divulgation. Microsoft n’a pas immédiatement reçu de réponses aux questions envoyées par courrier électronique.

    Quelle que soit la raison, l’attente de six mois a donné à Lazarus un moyen beaucoup plus efficace et furtif d’installer FudModule. Une fois en place, le rootkit a permis à Lazarus de contourner les défenses clés de Windows telles que Endpoint Detection and Response , Protected Process Light (conçu pour empêcher la falsification des processus de protection des points finaux) et la prévention de la lecture de la mémoire et de l’injection de code par des processus non protégés. Vojtěšek d’Avast a expliqué :

    Du point de vue de l’attaquant, passer de l’administrateur au noyau ouvre un tout nouveau domaine de possibilités . Avec un accès au niveau du noyau, un attaquant peut perturber les logiciels de sécurité, dissimuler les indicateurs d’infection (notamment les fichiers, l’activité réseau, les processus, etc.), désactiver la télémétrie en mode noyau, désactiver les atténuations, etc. De plus, comme la sécurité de PPL (Protected Process Light) repose sur la frontière entre l’administrateur et le noyau, notre attaquant hypothétique a également la possibilité de falsifier les processus protégés ou d’ajouter une protection à un processus arbitraire. Cela peut être particulièrement puissant si lsass est protégé par RunAsPPL , car le contournement de PPL pourrait permettre à l’attaquant de supprimer des informations d’identification autrement inaccessibles.

    Le chercheur a ensuite écrit :

    Si un attaquant, malgré tous ces obstacles, parvient à exploiter une vulnérabilité zero-day dans un pilote intégré, il sera récompensé par un niveau de furtivité qui ne peut être égalé par une exploitation BYOVD standard. En exploitant une telle vulnérabilité, l’attaquant vit en quelque sorte de la terre sans avoir besoin d’apporter, de supprimer ou de charger des pilotes personnalisés, ce qui permet à une attaque du noyau d’être véritablement sans fichier. Cela évite non seulement la plupart des mécanismes de détection, mais permet également d’attaquer les systèmes sur lesquels la liste blanche des pilotes est en place (ce qui peut sembler un peu ironique, étant donné que CVE-2024-21338 concerne un pilote AppLocker).

    Bien que nous ne puissions que spéculer sur la motivation de Lazarus pour choisir cette troisième approche pour franchir la frontière entre l’administrateur et le noyau, nous pensons que la furtivité était leur principale motivation. Compte tenu de leur niveau de notoriété, ils devraient échanger leurs vulnérabilités chaque fois que quelqu’un brûlait leur technique BYOVD actuellement utilisée. Peut-être ont-ils également pensé qu’en allant au-delà du BYOVD, ils pourraient minimiser le besoin d’échange en restant indétectés plus longtemps.

    Vulnérabilité ou non, patchez dès que possible

    Le chercheur indépendant Kevin Beaumont a qualifié la gestion de la vulnérabilité par l’entreprise de « autre problème de la part de Microsoft ».

    Source: https://arstechnica.com/security/2024/03/hackers-exploited-windows-0-day-for-6-months-after-microsoft-knew-of-it/

  • 4 Votes
    2 Posts
    60 Views

    C’est marrant eux qui infectaient le matos Cisco en sortie d’usine…

  • 1 Votes
    3 Posts
    57 Views

    Ils vont donner le code source et doivent être déjà en train de le modifier, comme ça ça sera inutile pour la suite

    Mais c’est déjà une avancée, et à mon avis c’est pas juste whatsapp mais les usa derrière qui veulent le code

  • 1 Votes
    4 Posts
    61 Views

    Si on se base sur ce qui ai dit, cela à tout son sens.
    Après j’ai jamais trouvé CNET de ouf non plus.

  • 2 Votes
    2 Posts
    39 Views

    C’est un fatigant ce guignol…

  • 0 Votes
    1 Posts
    47 Views

    Tout utilisateur de Linux essayant d’envoyer des images de haute résolution vers un écran à la fréquence d’images la plus élevée n’a pas de chance d’y parvenir dans un avenir prévisible, du moins en ce qui concerne une connexion HDMI.

    Le groupe de licences qui contrôle la norme HDMI, le HDMI Forum , aurait déclaré à AMD qu’il n’autorisait pas une implémentation open source de la spécification HDMI 2.1 (ou HDMI 2.1+), empêchant des outils tels que FreeSync d’AMD de fonctionner sur des connexions HDMI à des combinaisons résolution/taux comme 4K à 120 Hz ou 5K à 240 Hz.

    Le blog Linux Phoronix a noté en janvier 2021 que le HDMI Forum n’offrait pas d’accès public à la spécification HDMI 2.1. Alex Deucher, un ingénieur AMD qui a longtemps contribué aux offres open source de l’entreprise, a maintenu un fil de discussion sur un bug associé pendant au moins deux ans , pour finalement livrer un résultat négatif hier.

    En février 2023, Deucher a indiqué qu’il « travaillait avec notre équipe juridique [AMD] pour déterminer ce que nous pouvons offrir tout en respectant nos obligations envers le HDMI Forum ». Deux mois plus tard , il a déclaré qu’AMD avait « mis en place les fonctionnalités de base, nous devons maintenant passer en revue chacune des fonctionnalités avec les aspects juridiques et déterminer si/comment nous pouvons les exposer tout en respectant nos obligations ». L’été et l’automne 2023 se sont écoulés, l’examen juridique étant toujours en cours , et en octobre , la décision était « entre les mains du HDMI Forum ».

    Mercredi après-midi, Deucher a proposé la résolution actuelle :

    118d1f7f-f460-48c4-8fe8-e2d061b7d429-image.png

    Ars a contacté le forum HDMI, AMD et Deucher pour obtenir des commentaires supplémentaires et mettra à jour le message avec de nouvelles informations. X.org aurait également été impliqué dans des négociations avec le HDMI Forum.

    L’adhésion au HDMI Forum coûte au minimum 15 000 $. Bien qu’AMD soit un membre répertorié , cela ne s’étend probablement pas à l’offre d’une implémentation d’une spécification à usage public. L’accord des membres interdisant de telles choses ne semble pas être accessible au public, pas plus qu’un « addendum » pour les membres liés depuis le site du Forum. Une licence de code source trouvée sur le site du Forum ne semble pas particulièrement flexible.

    Phoronix et certains commentateurs ont suggéré une interférence potentielle de la part des sociétés de médias préoccupées par l’extraction de vidéos numériques. Cela ressemblerait à une porte de grange fermée des années après le départ du cheval, mais cela existe aussi comme une explication, manquant d’autres détails.

    Ce résultat laisse DisplayPort comme la meilleure option probablement pour les utilisateurs Linux ayant besoin du meilleur résultat possible. Cela suggère également qu’AMD doit décider s’il convient d’implémenter une prise en charge HDMI plus récente dans les pilotes Linux à source fermée ou simplement d’orienter ses clients les plus exigeants vers d’autres options.

    Source: https://arstechnica.com/gadgets/2024/02/hdmi-forum-to-amd-no-you-cant-make-an-open-source-hdmi-2-1-driver/

  • 1 Votes
    22 Posts
    262 Views