Aller directement au contenu

Actualités High-Tech

2.3k Sujets 11.3k Messages
  • 0 Votes
    9 Messages
    90 Vues

    Je pense pour ma part que si l’IA peut détruire des emplois, elle peut également en créer d’autres, c’est une question d’adaptation comme la société a dû le faire avec l’avènement d’Internet et d’autres innovations passées dans notre quotidien auparavant. Ce que je crains plus concernant l’IA, c’est l’augmentation possible de fake news en tout genre (que les RS ont grandement aidé à se développer déjà) et la capacité des gens à les croire, influençant ainsi leur façon de penser et d’agir. Et ça, selon moi, ça peut changer une société beaucoup plus que l’adaptation des lois du marché aux innovations.

  • 2 Votes
    3 Messages
    56 Vues

    @Aerya a dit:

    Merci. Je sais plus si on peut cp l’article complet du coup où si chacun fait avec Bypass Paywalls dans son coin ?

    Je n’en sais rien non plus, ce que je fais, c’est que quand l’article est trop long ou trop rasoir, je le fais résumer par chatgtp (et je retouche). Mais comme les liens sont fournis, les curieux ou les désoeuvrés peuvent toujours aller consulter l’original ou faire des recherches supplémentaires. 🙂

    Quoi qu’il en soit, merci pour le complément d’infos, ça consolide l’article ou lui donne un autre point de vue, ce qui est toujours souhaitable.

  • L’administration française va abandonner Windows ? C'est pas gagné...

    23
    0 Votes
    23 Messages
    274 Vues

    D’après les informations disponibles. Solution basée sur NixOS, sous licence MIT.
    Site web : https://nixos.org/
    Distribution Linux qui permet la création d’environnements reproductibles et l’installation locale de paquet pour le déploiements.
    Pour plus info : https://gricad-doc.univ-grenoble-alpes.fr/hpc/softenv/nix/#ressources-externes
    Je me suis monté une petite VM testée. C’est pas mal.
    C’est une bonne solution pour la déploiement et la gestion pour une entreprise.
    Par contre, pour un usage personnel non je reste sur Debian.

  • 4 Votes
    7 Messages
    93 Vues

    Sauf que Microsoft l’a bien dit. Ils ont accès aux données peu importe où elles sont hébergées.

  • Quand les IA et les bots s’invitent dans les applis de rencontre

    1
    3 Votes
    1 Messages
    30 Vues

    Entre les selfies trop parfaits et les promesses de grand amour, les faux profils IA et bots pullulent sur Tinder ou Meetic. Face à cette menace, les plateformes multiplient les outils de vérification pour protéger les utilisateurs.

    L’essentiel

    • Les applications de rencontre font face à une explosion de faux profils générés par l’intelligence artificielle. Ces derniers sont utilisés pour des arnaques à l’amour de plus en plus sophistiquées.
    • Face à ce constat, le plus grand groupe des applis de rencontre, Match Group, mène une lutte importante en supprimant en moyenne 44 comptes spam par minute.
    • Pour protéger les célibataires, les plateformes multiplient les vérifications pour prouver l’authenticité des profils et éviter à un usager de tomber sur un brouteur, comme Anne.

    C’est le « match » parfait. Une mâchoire dessinée ou une belle chevelure blonde, un regard perçant, une description qui coche les cases les plus populaires des applis… Mais derrière ce profil idéal se cache peut-être une réalité bien moins romantique : une suite de 0 et 1. L’intelligence artificielle, qui s’immisce déjà partout a franchi la porte de notre intimité. Et sur les applications de rencontre, elle n’est pas vraiment là pour vous aider à trouver l’élue ou l’élu de votre cœur.

    Antoine, 29 ans, en a fait son quotidien. Ce célibataire albigeois depuis six mois, qui parcourt les applications « avec l’espoir de faire une rencontre », s’est transformé malgré lui en expert. « Je pense qu’au moins une fois par jour, j’ai un profil 100 % IA avec des phrases random, sans aucune personnalité… Ça se voit en plus, c’est même pas si bien fait. Je les signale bien évidemment mais c’est devenu franchement relou », confie-t-il à 20 Minutes.

    « Les beaux mecs, je m’en méfiais déjà »

    Le problème, c’est que l’IA a rendu l’arnaque accessible à tous. Plus besoin d’être un génie du montage photo ou de voler les clichés d’une célébrité comme le brouteur d’Anne piégée dans une histoire d’amour et d’argents avec « Brad Pitt ». Des logiciels génèrent désormais des visages humains et un véritable profil à la recherche de l’amour, capables de tromper un œil ou un cœur non-averti.

    Pauline, 32 ans, récemment divorcée, confirme cette méfiance généralisée : « Les beaux mecs, je m’en méfiais déjà sur les applis quand j’étais plus jeune parce que souvent c’étaient des photos volées, mais là encore plus ! Heureusement, je sais reconnaître une photo IA, notamment les détails bizarres sur les mains ou l’arrière-plan, donc je ne tombe pas dans le piège. Mais ma tante, qui est sur un site pour seniors, je ne suis pas sûre qu’elle sache faire la différence. »

    44 comptes spam supprimés toutes les minutes

    Face à cette menace, les plateformes ne restent pas les bras croisés. Match Group, le géant qui détient Tinder, Meetic, Hinge ou encore DisonsDemain, mène une guerre de l’ombre contre les « bots ». Les chiffres communiqués à 20 Minutes donnent le tournis : en moyenne, 44 comptes spam sont supprimés chaque minute sur l’ensemble de ses plateformes. Entre janvier et mars de cette année, ce sont près de 5 millions de bots et comptes spam qui ont été éjectés, souvent avant même d’avoir pu envoyer leur premier « Salut, ça va ? ». Le but ? Bloquer ces profils dès l’inscription pour éviter que l’utilisateur ne soit exposé au moindre risque. Car derrière ces robots se cachent souvent des réseaux de cybercriminalité bien réels.

    Aux États-Unis, la Federal Trade Commission (FTC) estime que ces arnaques sentimentales génèrent des millions de dollars de pertes chaque année. En France, la tendance est tout aussi inquiétante. En 2024, le numéro d’aide aux victimes (le 116 006) a reçu 957 appels pour des escroqueries sentimentales, soit près de 3 appels par jour. C’est un chiffre en forte hausse depuis cinq ans, prouvant que les « brouteurs » et autres escrocs du sentiment ont trouvé dans l’IA un allié de poids.

    Une campagne nationale pour sensibiliser contre les bots et l’IA

    Pour contrer cette vague d’IA, Tinder s’est associé à France Victimes et au gouvernement français pour lancer une campagne nationale baptisée « Les Faux de l’Amour ». L’idée : éduquer les célibataires à repérer les « red flags » d’un faux profil IA qui cache un arnaqueur.

    « On incite les utilisateurs à être attentifs à certains comportements types », explique-t-on chez Tinder. Parmi eux : la volonté de quitter l’application très rapidement pour passer sur WhatsApp ou Telegram, des promesses grandioses après seulement deux échanges, ou encore des excuses systématiques (problème de caméra, déplacement d’urgence) pour ne jamais se rencontrer en personne ou faire un appel vidéo.

    Plusieurs vérifications pour éviter les faux profils

    Mais la pédagogie ne suffit pas toujours. Tinder, notamment, assure avoir déployé plus de 20 outils de sécurité en trois ans. Le tout concentré sur la vérification : par la photo, déjà, permettant de confirmer que l’utilisateur est bien celui qu’il prétend être en comparant les photos de son profil avec une série de selfies pris en direct. Ensuite, la vérification par selfie vidéo pour prouver que le profil n’est pas un montage et enfin, depuis avril 2025, la vérification d’identité. Les utilisateurs vérifiés peuvent désormais choisir de ne recevoir des messages que de la part d’autres profils vérifiés. Une manière de filtrer drastiquement les indésirables sur le papier.

    Des outils et des aides de plus en plus consultées

    Désormais, donc, dès l’inscription, le ton est donné. Avant de pouvoir « swiper », l’utilisateur doit accepter un code de conduite et de vérification strict. Un « Centre de sécurité éducatif » est également accessible directement dans l’application, fournissant des ressources et des contacts d’associations. Et ça marche : le taux de consultation des conseils de sécurité a bondi de 57 %, selon Tinder France.

    Pourtant, malgré ces barrières technologiques et ces aides, le risque zéro n’existe pas. Un arnaqueur aguerri peut très bien passer les étapes de vérifications avant de transformer complètement son profil en IA… En attendant le match parfait, la règle d’or reste la même que dans la vraie vie : si c’est trop beau pour être vrai, c’est probablement que ça ne l’est pas.

    Source: https://www.20minutes.fr/societe/4217090-20260410-arnaque-amour-si-bien-fait-quand-ia-bots-invitent-applis-rencontre

  • 3 Votes
    2 Messages
    63 Vues

    Les fermes sont pas nouvelles (il est vraiment naïf ou alors un jeunot de 20 piges) et je doute que ce soit beaucoup pour Reddit. C’est plutôt pour favoriser les stats sur les réseaux sociaux voire farmer dans certains jeux.
    Pas besoin de smartphone pour des bots de posts/like sur Reddit, X, FB etc…

  • 3 Votes
    8 Messages
    149 Vues

    C’est la course a SkyNET, le premier arrivé pense pouvoir garder le contrôle quand le bébé est capable de penser à la vitesse de la lumière.

    Anthropic semble vouloir générer du buzz pour récupérer leur valeur d’actions.
    Mais de l’autre côté, ils ont quand même dit non a contrôler des drôles autonomes… c’est assez rare ce genre d’intégrité.

  • 0 Votes
    1 Messages
    31 Vues

    [image: 1775638514530-00b9f20c-7239-4558-911f-8b20fb0cf8dd-image.jpeg]

    Problème constaté sur la Nvidia Shield Pro.

    https://learn.microsoft.com/en-us/answers/questions/5551009/just-updated-windows-11-kb5065426-network-shares-n

  • 3 Votes
    2 Messages
    47 Vues

    Voilà d’excellentes initiatives. Si les fabricants pouvaient les appliquer au monde entier ça ne serait pas un luxe.

  • 3 Votes
    2 Messages
    61 Vues

    Il manque deux choses importantes à la majorité de l’espèce humaine, l’intelligence et le respect.

    Y compris à ceux qui fabriquent ou emploient des robots livreurs, qui mettent au chômage des gens qui n’ont que ce boulot mal payé pour survivre.

  • Frappes dans des centres de données Amazon: ce que ça change à la guerre

    1
    4 Votes
    1 Messages
    37 Vues

    Principalement basés dans la région du Golfe, les centres de données qui font fonctionner l’intelligence artificielle constituent des infrastructures cruciales. Et comme tout dispositif critique, ils deviennent des cibles potentielles en temps de guerre.

    L’intelligence artificielle est devenue un outil central des opérations militaires (-si les militaires étaient intelligents, il n’y aurait pas de guerre-), notamment pour l’armée des États-Unis. Les centres de données qui la font fonctionner, sont principalement basés dans la région du Golfe, constituent donc des infrastructures cruciales. Et comme tout dispositif critique, ils deviennent des cibles potentielles en temps de guerre.

    Le 1er mars 2026, peu avant l’aube, des drones iraniens ont visé deux centres de données Amazon situés aux Émirats arabes unis. Un troisième centre, au Bahreïn, a également été touché, bien qu’il ne soit pas établi qu’il avait été visé de façon délibérée. L’Iran a en tout cas indiqué qu’il considérait les centres de données commerciaux comme des cibles.

    Il s’agit de la première fois qu’un État cible délibérément des centres de données dans le cadre d’un conflit armé. Par le passé, ces infrastructures avaient fait l’objet d’opérations d’espionnage et de cyberattaques, notamment en 2024, lorsque des hackers ukrainiens ont détruit des données stockées dans des centres militaires russes, mais l’attaque iranienne se distingue par sa nature. Ses drones ont cette fois endommagé des infrastructures matérielles.

    Les progrès de l’intelligence artificielle accroissent l’importance stratégique des centres de données. L’armée états-unienne, en particulier, a largement investi dans des outils d’IA destinés aux systèmes d’aide à la décision (SAD) dans le cadre de ses opérations en Iran et au Venezuela. C’est pourquoi les forces iraniennes pourraient chercher à neutraliser les infrastructures qui, selon leurs dirigeants, sont employées dans le cadre de ces opérations militaires.

    Il n’est cependant pas établi que ces centres spécifiques aient été utilisés par l’armée états-unienne. Les attaques pourraient avoir eu pour seul objectif de punir les Émirats arabes unis en raison de leurs liens avec les États-Unis.

    «Les frappes contraignent néanmoins les nations à reconnaître que les centres de données constituent désormais des cibles potentielles dans les conflits armés»
    Même lorsqu’ils ne soutiennent pas directement des opérations militaires.

    Les centres de données et le cloud

    L’armée américaine intègre de plus en plus l’intelligence artificielle dans ses systèmes d’aide à la décision. Lors de l’opération Absolute Resolve, qui a permis à Washington d’enlever le président vénézuélien Nicolas Maduro comme actuellement avec les frappes militaires contre l’Iran, les États-Unis ont recours à l’IA, notamment Claude (d’Anthropic), à des fins d’analyse du renseignement et d’appui opérationnel.

    Si l’IA permet d’accélérer la conduite des opérations militaires, les outils qu’elle mobilise ne sont pas embarqués à bord d’avions ou de navires. Lorsqu’un militaire utilise Claude, l’infrastructure informatique qui alimente le modèle et ses analyses est généralement hébergée sur une plateforme cloud sécurisée d’Amazon Web Services (AWS), qui stocke des données gouvernementales confidentielles ainsi que divers outils logiciels.

    Les centres de données commerciaux constituent le socle physique du cloud. Par exemple, chaque fois qu’un utilisateur ouvre Netflix pour regarder une série, le contenu est probablement diffusé depuis un centre de ce type, qui appartient d’ailleurs peut-être lui aussi à AWS.

    «Lorsque ces centres tombent en panne, les interruptions affectent une multitude de services de divertissement, d’information, et de fonctions gouvernementales»

    L’IA étant un moteur de croissance économique, les centres de données représentent une infrastructure critique. Ils assurent le bon fonctionnement de l’IA ainsi que d’une grande partie d’Internet dont dépendent les gouvernements et le secteur privé. Lorsque l’Iran a attaqué les centres de données des Émirats arabes unis, cela a provoqué des perturbations massives au sein du système bancaire local.

    Les centres de données commerciaux font fonctionner la plupart des technologies sur lesquelles repose le monde moderne, y compris les systèmes d’IA. Les perturber revient à paralyser à la fois l’armée et la société d’un pays. Étant donné qu’AWS exploite un grand nombre de ces centres à l’échelle mondiale, il est probable que ses infrastructures continueront d’être prises pour cible dans les conflits à venir.

    Source et plus: https://www.watson.ch/fr/international/etats-unis/224897755-frappes-dans-des-centres-amazon-ce-que-ca-change-a-la-guerre

  • 2 Votes
    1 Messages
    41 Vues

    It’s not a bug, it’s a feature

    [image: Copilotest.webp]

    GitHub a désactivé en urgence une fonctionnalité qui permettait l’insertion, par Copilot, de « conseils » dans les pull requests des utilisateurs. Quelques jours plus tôt, la plateforme avait annoncé l’extension de l’utilisation faite des données des utilisateurs pour l’entraînement de ses modèles, avec une approbation tacite par défaut et une désactivation manuelle (opt-out).

    Glisser des conseils en forme de pubs dans le code des demandes de tirage (pull requests), il fallait y penser. GitHub l’a fait, de façon fort maladroite, et vient de rétropédaler en urgence face à la fronde des utilisateurs. La plateforme invoque une erreur de paramétrage, liée à une autre de ses modifications récentes : la possibilité de collecter les données issues des interactions de l’utilisateur avec Copilot.

    « Copilot a intégré une pub à ma PR »

    Lundi 30 mars, plusieurs développeurs s’insurgent sur les réseaux sociaux : en lisant les demandes de tirage réalisées au sein de leurs équipes, ils réalisent que le code a fait l’objet d’une édition réalisée par l’agent IA Copilot intégré à la plateforme. « Déployez rapidement des agents de codage Copilot depuis n’importe quel endroit de votre machine macOS ou Windows grâce à Raycast », écrit l’IA de Microsoft, avec émoticône en forme d’éclair et lien vers le site de l’éditeur concerné.

    [image: copilot-hell.png?ssl=1]

    L’IA a édité la PR pour y ajouter une phrase faisant la promotion d’un outil tiers, Raycast – capture d’écran publiée par Zach Manson

    Quelles que soient les qualités intrinsèques de Raycast, difficile de ne pas interpréter ce message comme une incitation à installer le logiciel, et donc comme une publicité. « C’est horrible. Je savais que ce genre de conneries finirait par arriver, mais je ne m’attendais pas à ce que ce soit si tôt », s’émeut le développeur australien Zach Manson, capture d’écran à l’appui, qui rappelle ensuite la fameuse citation de Cory Doctorow sur la théorie de la merdification.

    « Au départ, les plateformes conviennent à leurs utilisateurs ; ensuite, elles abusent de ces usagers pour améliorer l’expérience de leurs clients professionnels ; enfin, elles abusent de leurs clients professionnels pour récupérer toute la valeur pour elles-mêmes. »

    GitHub rétropédale en urgence

    Sentant la bronca venir, GitHub n’a pas tardé à réagir. La plateforme nie toute velléité publicitaire et invoque plutôt l’erreur technique liée à une fonctionnalité présentée comme acceptable, les conseils produits. C’est Martin Woodward, vice-président en charge des relations avec les développeurs, qui est monté au créneau sur X lundi en fin de journée, en répondant à un compte qui s’alarmait de ce changement :

    « Nous l’avons déjà désactivé. En fait, il s’agissait de conseils produits, ce qui était acceptable pour les demandes de fusion initiées par Copilot. Mais lorsque nous avons ajouté la possibilité d’utiliser Copilot sur _n’importe quelle_ demande de fusion en le mentionnant, le comportement est devenu problématique. Nous avons donc désactivé complètement les conseils produits suite aux retours reçus. »

    Quelques heures plus tard, il livre une explication de texte légèrement plus détaillée et promet que GitHub n’a jamais eu et n’a toujours pas l’intention d’intégrer de publicité sur sa plateforme :

    « Notre objectif était de partager des utilisations innovantes de l’agent de codage Copilot. Dans ce cas précis, nous avions mis en avant notre intégration avec Raycast parmi un ensemble plus large de conseils produits. Cependant, cette suggestion est apparue plus fréquemment que prévu, au même titre que d’autres suggestions de fonctionnalités. Nous avons donc supprimé les conseils relatifs à l’agent Copilot de toutes les pull requests. »

    Il situe par ailleurs la date d’introduction de ce comportement problématique au 24 mars, à l’occasion « d’un déploiement qui a étendu la capacité de Copilot à contribuer à toute demande de fusion lorsqu’un développeur en fait la demande ».

    GitHub renforce l’intégration de Copilot (et son accès aux données)

    Le 24 mars, c’est précisément la date à laquelle GitHub a annoncé une mise à jour de ses conditions d’utilisation, pour étendre les possibilités d’entrainement de Copilot.

    Suite de l’article en accès libre : next.ink

  • 1 Votes
    1 Messages
    31 Vues

    Deux nouvelles attaques, GDDRHammer et GeForge, démontrent qu’il est possible d’exploiter la technique Rowhammer sur les GPU Nvidia hautes performances pour obtenir un contrôle total (accès administrateur) de la machine hôte, notamment dans les environnements cloud où ces GPU sont partagés.

    Rowhammer repose sur des inversions de bits en mémoire (0 ↔ 1) provoquées par des accès intensifs à la DRAM. Initialement observée sur les CPU, cette technique a évolué au fil des années pour contourner diverses protections et cibler des systèmes de plus en plus complexes.

    Les chercheurs montrent désormais que la mémoire GDDR des GPU est aussi vulnérable. Les nouvelles attaques vont plus loin que les précédentes :

    Elles permettent de corrompre les tables de pages du GPU,
    Puis d’obtenir un accès en lecture/écriture à toute la mémoire du GPU et du CPU,
    Ce qui conduit à une compromission complète du système (exécution de commandes en root).

    Ces attaques ciblent notamment les cartes RTX 3060 et RTX 6000 (architecture Ampere). Elles exploitent des techniques avancées comme le « massage mémoire » pour déplacer des données sensibles vers des zones vulnérables.

    Des mesures de mitigation existent :

    Activer l’IOMMU dans le BIOS (désactivée par défaut),
    Activer la correction d’erreurs (ECC),
    mais ces protections peuvent réduire les performances et ne sont pas toujours suffisantes.

    Enfin, aucune exploitation réelle n’a encore été observée, mais ces travaux montrent que les GPU représentent désormais une nouvelle surface d’attaque critique, obligeant à repenser les défenses de sécurité à la fois côté CPU et GPU.

    Source: https://arstechnica.com/security/2026/04/new-rowhammer-attacks-give-complete-control-of-machines-running-nvidia-gpus/

  • IA: Des doubleurs français obtiennent le retrait de voix clonées par IA

    1
    2 Votes
    1 Messages
    29 Vues

    Vingt-cinq doubleurs français ont obtenu le retrait par la plateforme américaine Fish Audio de 47 modèles d’intelligence artificielle (IA) générative qui reproduisaient leurs voix sans consentement ni rémunération, a indiqué jeudi à l’AFP leur avocat Jonathan Elkaim.

    Début février, des mises en demeure dénonçant des «actes parasitaires» avaient été adressées à Fish Audio et une autre plateforme américaine, VoiceDub, par huit comédiens français. Depuis, le nombre de requérants associés à cette action inédite est passé à 25, selon Me Elkaim qui a exprimé «sa grande satisfaction» après avoir été informé du retrait des contenus litigieux.

    «Ça envoie un message clair: ce n’est pas parce qu’une société est à l’étranger qu’elle n’est pas sensibilisée à l’application du droit européen et français», explicite l’avocat, qui avait déjà obtenu le retrait des contenus par VoiceDub.

    Il dit toutefois rester «méfiant» et sur la réserve. Certaines revendications des doubleurs, notamment le versement de 20’000 euros de dommages et intérêts, n’ont pas été satisfaites et le risque perdure que de nouveaux contenus violant les droits des doubleurs soient à nouveau postés sur ces plateformes.

    «Le contentieux n’est pas refermé et il est évident qu’on est encore aujourd’hui en quête d’une décision de justice qui ferait jurisprudence», indique Me Elkaim, qui dit travailler, avec d’autres avocats, à une nouvelle procédure dont la finalité serait d’interdire ces plateformes sur le territoire français.

    Ces actions font écho à l’inquiétude soulevée en France et dans le monde de la création par l’essor de l’IA générative. Fin février, 4000 acteurs, actrices et cinéastes avaient dénoncé un «pillage en règle» en mettant notamment en avant «le clonage de voix sans autorisation» qui devient «légion».

    Source: https://www.bluewin.ch/fr/infos/sciences-technique/voix-clon-es-par-ia-25-doubleurs-obtiennent-le-retrait-de-contenus-3173303.html

  • 2 Votes
    8 Messages
    114 Vues

    @michmich Je l’avais expliqué dans le topic qui l’a fait créer.

    J’avais reçu comme reproche un résumé trop typé et reconnaissable, j’ai pris la même source et j’ai demandé à chatgpt de me la sortir en alexandrins.

    Je ne me souviens plus de la phrase d’origine, elle parlait du danger de se connecter sur n’importe quoi, et franchement, le résultat est magnifique, n’en déplaise aux ennemis de la poésie et aux férus de technique. undefined

  • Fin de la 2G : Va-t-on tous rester coincés dans l’ascenseur ?

    5
    0 Votes
    5 Messages
    105 Vues

    La décision de l’arrêt de la 2G/3G ne date pas d’hier, j’avais rencontré il y a deux ans quelqu’un qui justement concevait des dispositifs pour pallier à cette disparition. Mais c’est toujours au dernier moment qu’on panique 🙂

  • Firefox propose désormais un VPN gratuit à tous ses utilisateurs

    vpn firefox
    18
    2 Votes
    18 Messages
    343 Vues

    Sur tous les PC que j’utilise il n’y en a encore aucun sur lequel est disponible le VPN Firefox. Pourtant c’est bien la version 149 sur chacun d’eux.

  • 1 Votes
    1 Messages
    34 Vues

    Un satellite Starlink se désintègre en « dizaines d’objets » ; SpaceX confirme une « anomalie »

    La division SpaceX (via Starlink) a perdu le contact avec un satellite en orbite à environ 560 km, probablement à la suite d’une anomalie ayant entraîné sa fragmentation en dizaines de débris. Selon LeoLabs, l’événement serait dû à une source d’énergie interne plutôt qu’à une collision, et les fragments devraient se désintégrer en quelques semaines.

    L’incident ne présente pas de risque pour les autres opérations spatiales, notamment la Station spatiale internationale ou la mission Artemis II. SpaceX continue d’analyser la cause et de surveiller les débris.

    Un événement similaire s’était déjà produit en décembre 2025, suggérant un problème récurrent possiblement lié aux systèmes internes des satellites. Par ailleurs, un autre incident en décembre avait mis en évidence les risques de collision dus au manque de coordination entre opérateurs, après un lancement chinois passé à seulement 200 mètres d’un satellite Starlink.

    Globalement, ces incidents soulignent l’importance croissante de la gestion du trafic spatial, surtout avec les projets d’expansion massive de constellations comme Starlink.

    Source: https://arstechnica.com/tech-policy/2026/03/starlink-satellite-breaks-apart-into-tens-of-objects-spacex-confirms-anomaly/

    Boum ! Quand votre moteur fait boum ! La dépanneuse simoun viendra vers vous en vitesse…

  • 0 Votes
    1 Messages
    37 Vues

    Il ne sera bientôt plus possible de protéger ses messages privés sur le réseau social de Meta. C’est une nouvelle atteinte à la vie privée. (mais peut-on vraiment parler de vie privée sur un réseau social ?)

    [image: 1774845728181-e42e44ad-abb4-4e67-9782-dc8c9eef1c1d-image.jpeg]

    C’est une décision passée presque inaperçue, annoncée discrètement mi-mars 2026: Instagram va mettre fin au chiffrement de bout en bout de ses messages privés. La mesure entrera en vigueur le 8 mai.

    Ce revirement est d’autant plus frappant que cette technologie avait été introduite récemment, en 2023, dans le cadre d’une promesse plus large de renforcer la confidentialité. Mais contrairement à WhatsApp ou Signal, le chiffrement n’a jamais été proposé par défaut sur Instagram. Il fallait l’activer manuellement, conversation par conversation, une complexité qui a fortement limité son adoption.

    Source pour abonnés: https://www.letemps.ch/opinions/chroniques/la-fin-du-chiffrement-sur-instagram-encore-une-tres-mauvaise-idee-de-mark-zuckerberg

  • 2 Votes
    1 Messages
    47 Vues

    L’Autriche va interdire l’utilisation des réseaux sociaux jusqu’à 14 ans, selon un accord conclu après de longues tractations au sein de la coalition entre la gauche, la droite et les libéraux, a annoncé le gouvernement vendredi.

    “Il est presque impossible pour les parents de contrôler la consommation de leurs enfants” sur ces plateformes qui sont faites pour les rendre ‘sciemment dépendants’”, a déclaré en conférence de presse le vice-chancelier social-démocrate Andreas Babler.

    Nouveau cours obligatoire

    Le gouvernement prévoit d’introduire une nouvelle matière obligatoire dans l’enseignement des élèves, baptisée “Médias et démocratie”, destinée à les aider à distinguer le vrai du faux et à reconnaître les tentatives d’influence antidémocratiques, selon le projet.
    Tendance européenne

    Plusieurs pays de l’Union européenne ont déjà annoncé leur intention d’instaurer une majorité numérique pour les réseaux sociaux, comme la France, l’Espagne et le Danemark, tandis que d’autres y réfléchissent activement.
    Désactivation en Indonésie

    En Indonésie, où 70 millions d’enfants sont concernés (sur une population totale de 284 millions d’habitants), les comptes appartenant aux moins de 16 ans doivent commencer à être désactivés à partir de samedi, sur les plateformes dites “à haut risque”, à savoir YouTube, TikTok, Facebook, Instagram, Threads, X, Bigo Live et Roblox. “Nous prenons cette mesure pour reprendre le contrôle de l’avenir de nos enfants”, a expliqué récemment la ministre des Communications, Meutya Hafid.
    Téléphones et enseignement

    L’Association des enseignants indonésiens (P2G) exhorte le gouvernement à ne pas se contenter d’interdire l’utilisation des réseaux sociaux aux enfants “mais aussi à limiter et réglementer l’utilisation des téléphones pendant les cours, car cela perturbe la concentration des élèves”.

    Aux États-Unis, un jury a estimé mercredi qu’Instagram et YouTube étaient responsables du caractère addictif de leurs plateformes et des troubles de santé mentale subis à l’adolescence par une jeune Californienne, lui octroyant 6 millions de dollars de dommages.

    Source: https://www.7sur7.be/tech/lautriche-va-interdire-les-reseaux-sociaux-aux-enfants-jusqua-14-ans~ad1a6b67/

    Reste à trouver un système fiable et pas trop dangereux (genre carte d’identité) pour un accès autorisé sur les réseaux d’indiscrétion garantie…