Actualités High-Tech

2.1k Sujets 10.4k Messages
  • 1 Votes
    4 Messages
    568 Vues

    Protocole intéressant …Merci pour ces infos ; je vais marquer cette page pour plus tard…

  • 1 Votes
    6 Messages
    38 Vues

    Arf pas remarqué ça sur mes machines clientes. Je serais plus vigilant.

  • Google banana l'I.A. qui tue Photoshop

    3
    0 Votes
    3 Messages
    81 Vues

    @duJambon a dit dans Google banana l'I.A. qui tue Photoshop :

    Comment développer son esprit critique face aux images à l’ère de l’IA?

    Développer son esprit critique tout court serait déjà un grand pas pour beaucoup de monde de nos jours… L’IA n’est qu’un démultiplicateur de l’ignardise sociétale.
    Big up à tous les ploucs qui confondent IA et moteur de recherche.

  • 1 Votes
    1 Messages
    9 Vues

    L’entreprise affirme que son nouveau modèle d’IA surpasse Gemini et égale les humains dans 70 % des tâches professionnelles. 🎻 …en vitesse (ah bon !) 🙂

    Jeudi, OpenAI a lancé GPT-5.2, sa toute nouvelle famille de modèles d’IA pour ChatGPT, déclinée en trois versions : Instant, Thinking et Pro. Cette publication fait suite à la note interne d’urgence émise par le PDG Sam Altman au début du mois, qui réorientait les ressources de l’entreprise vers l’amélioration de ChatGPT face à la concurrence du modèle d’IA Gemini 3 de Google .

    « Nous avons conçu la version 5.2 pour générer encore plus de valeur économique pour les utilisateurs », a déclaré Fidji Simo, directeur des produits chez OpenAI, lors d’une conférence de presse jeudi. « Elle est plus performante pour créer des feuilles de calcul, élaborer des présentations, écrire du code, percevoir des images, comprendre le contexte à long terme, utiliser des outils et relier des projets complexes à plusieurs étapes. »

    Comme pour les versions précédentes de GPT-5, les trois niveaux du modèle ont des objectifs différents : Instant gère les tâches plus rapides comme l’écriture et la traduction ; Thinking produit un texte de « réflexion » simulé pour tenter de s’attaquer à des tâches plus complexes comme le codage et les mathématiques ; et Pro produit encore plus de texte de raisonnement simulé dans le but d’offrir les performances les plus précises pour les problèmes difficiles.

    (Ici un benchmark entre la version 5.1 et la 5.2 il y a un mot tout en bas à ce sujet)

    Étrangement, bien que la sortie du modèle GPT-5.2 soit censée répondre aux performances de Gemini 3, OpenAI a choisi de ne publier aucun benchmark comparatif entre les deux modèles sur son site web promotionnel.

    GPT-5.2 dispose d’une fenêtre de contexte de 400 000 jetons, lui permettant de traiter des centaines de documents à la fois, et d’une date limite de connaissances fixée au 31 août 2025.

    GPT-5.2 sera déployé auprès des abonnés payants de ChatGPT à partir de jeudi, avec un accès API disponible pour les développeurs. Le prix de l’API est de 1,75 $ par million de jetons d’entrée pour le modèle standard, soit une augmentation de 40 % par rapport à GPT-5.1. OpenAI précise que l’ancienne version GPT-5.1 restera disponible dans ChatGPT pour les utilisateurs payants pendant trois mois, dans un menu déroulant dédié aux anciens modèles.

    Rattraper son retard sur Google

    Cette annonce intervient après un mois difficile pour OpenAI. Début décembre, Altman a émis une directive interne d’alerte maximale suite à la performance exceptionnelle du modèle Gemini 3 de Google, qui a surpassé plusieurs benchmarks d’IA et conquis des parts de marché. La note de service préconisait le report d’autres initiatives, notamment les plans publicitaires pour ChatGPT, afin de se concentrer sur l’amélioration de l’expérience utilisateur du chatbot.

    Les enjeux sont considérables pour OpenAI. L’entreprise s’est engagée à investir 1 400 milliards de dollars dans le développement de son infrastructure d’IA au cours des prochaines années, des investissements réalisés lorsqu’elle bénéficiait d’une avance technologique plus marquée parmi les entreprises du secteur. L’application Gemini de Google compte désormais plus de 650 millions d’utilisateurs actifs mensuels, tandis qu’OpenAI revendique 800 millions d’utilisateurs actifs hebdomadaires pour ChatGPT.

    Pour rester compétitif, OpenAI déploie des modèles à un rythme soutenu : GPT-5.2 est la troisième mise à jour majeure depuis août. Lancée en août, GPT-5 proposait un nouveau système de routage permettant d’alterner entre réponse instantanée et raisonnement simulé, mais les utilisateurs ont déploré de novembre le manque de naturel et de spontanéité des réponses. La mise à jour GPT-5.1 a ajouté huit options de « personnalité » prédéfinies et s’est concentrée sur l’amélioration du comportement conversationnel du système.

    OpenAI affirme que GPT-5.2 Thinking surpasse ou égale les performances des experts humains dans 70,9 % des tâches du benchmark GDPval (contre 53,3 % pour Gemini 3 Pro). L’entreprise affirme également que le modèle accomplit ces tâches plus de 11 fois plus rapidement et à un coût inférieur à 1 % de celui des experts humains.

    Selon Max Schwarzer, responsable du post-entraînement chez OpenAI, GPT-5.2 Thinking génère également des réponses avec 38 % de confabulations en moins que GPT-5.1, qui a déclaré à VentureBeat que le modèle « hallucine sensiblement moins » que son prédécesseur.

    Cependant, nous prenons toujours les benchmarks avec des pincettes, car il est facile de les présenter de manière positive pour une entreprise, surtout lorsque la science de la mesure objective des performances de l’IA n’a pas encore rattrapé les arguments de vente des entreprises en faveur de capacités d’IA quasi humaines.

    Les résultats de tests comparatifs indépendants réalisés par des chercheurs extérieurs à OpenAI ne seront pas disponibles avant un certain temps. En attendant, si vous utilisez ChatGPT pour vos tâches professionnelles, vous pouvez vous attendre à des modèles performants bénéficiant d’améliorations progressives et d’une optimisation du code.

    Source: https://arstechnica.com/information-technology/2025/12/openai-releases-gpt-5-2-after-code-red-google-threat-alert/

  • 3 Votes
    1 Messages
    15 Vues

    Sinon voici des préfix CHATGPT à utiliser pour optimiser son utilisation 😉
    ça mériterait son propre topic 😉

    Si vous utilisez ChatGPT régulièrement, vous avez certainement remarqué que les réponses varient considérablement en fonction de la façon dont vous posez votre question. Mais peu de gens exploitent pleinement le potentiel des préfixes structurés pour transformer radicalement la qualité et le format des réponses.

    Ces préfixes ne sont pas des commandes magiques, mais plutôt des instructions explicites en langage naturel. En cadrant précisément votre attente dès le début de votre prompt, vous guidez le modèle vers le type de raisonnement, le format et le niveau de détail souhaités. C’est une forme de prompt engineering accessible à tous.

    À noter : L’efficacité de ces préfixes peut varier selon le contexte, la complexité de votre question et la formulation globale de votre prompt. L’essentiel est d’expérimenter pour trouver ce qui fonctionne le mieux dans votre cas d’usage spécifique.

    Reformater les réponses pour obtenir le format exact

    /ELI5 : Explique de manière très simple et accessible (Explain Like I’m 5)
    Idéal quand un concept vous semble complexe et que vous souhaitez une explication élémentaire.
    Exemple : /ELI5: Comment fonctionne la théorie des cordes ?

    /FORMAT AS : Impose un format spécifique (tableau, JSON, etc.)
    Exemple : /FORMAT AS JSON: Liste les monnaies du monde

    /CHECKLIST : Transforme la réponse en liste à cocher
    Exemple : /CHECKLIST: Préparation d’un départ à la retraite d’un collègue

    /EXEC SUMMARY : Présente un résumé, idéal pour un rapport professionnel et structuré
    Exemple : /EXEC SUMMARY: Tendances du ecommerce français en 2025

    /COMPARE : Place deux ou plusieurs éléments côte à côte pour faciliter la comparaison
    Exemple : /COMPARE: Symfony vs Laravel en framework PHP

    /STEP-BY-STEP : Décompose en étapes claires et séquencées permettant de suivre un processus du début à la fin de manière logique
    Exemple : /STEP-BY-STEP: Comment créer un post Instagram viral ?

    /TLDL : Résume en quelques lignes essentielles (Too long, didn’t listen)
    Exemple : /TLDL: Explique la formation des trous noirs

    /SCHEMA : Génère un plan structuré ou un modèle afin de visualiser l’architecture d’une idée
    Exemple : /SCHEMA: Structure du process de mise en stock d’un article

    /BRIEFLY : Force une réponse très concise
    Exemple : /BRIEFLY: Résume ce concept

    /BEGIN WITH ou /END WITH : Force un début ou une fin spécifique
    Exemple : /BEGIN WITH: “Bonjour” / END WITH: “Cordialement”

    Pousser la réflexion plus loin

    Face à des questions techniques ou stratégiques, ChatGPT peut parfois proposer des réponses trop rapides ou manquant de profondeur. Ces commandes obligent le modèle à ralentir, à décomposer son raisonnement et à vérifier lui-même la solidité de ses conclusions.

    /SWOT : Produit une analyse forces/faiblesses/opportunités/menaces.
    Exemple : /SWOT: Créer une boutique Shopify dans la niche des produits écologiques pour bébés

    /METRICS MODE : Exprime les réponses avec mesures et indicateurs.
    Exemple : /METRICS MODE: Analyse la rentabilité d’un passage de 35h à 32h dans une startup de 15 personnes

    /CHAIN OF THOUGHT : L’IA expose chaque étape de sa logique en affichant le raisonnement intermédiaire.
    Exemple : /CHAIN OF THOUGHT: Un investissement de 50k€ en SEO ou en publicité Meta pour un site e-commerce ?

    /FIRST PRINCIPLES : Permet une analyse rigoureuse en remontant aux bases.
    Exemple : /FIRST PRINCIPLES: Pourquoi les batteries lithium-ion dominent-elles le marché des véhicules électriques ?

    /PARALLEL LENSES : Examine une question sous plusieurs angles.
    Exemple : /PARALLEL LENSES: L’impact de l’intelligence artificielle sur le métier de développeur web - vision optimiste, réaliste et pessimiste

    /EVAL-SELF : L’IA évalue sa propre réponse de manière critique.
    Exemple : /EVAL-SELF: Ton analyse précédente sur les cryptomonnaies contenait-elle des biais ou approximations ?

    /PITFALLS : Identifie les erreurs et les pièges possibles.
    Exemple : /PITFALLS: Je veux automatiser entièrement le service client par IA - quels problèmes vais-je rencontrer ?

    /SYSTEMATIC BIAS CHECK : Assure une analyse objective et impartiale.
    Exemple : /SYSTEMATIC BIAS CHECK: Réexamine ton analyse sur le travail à distance - as-tu favorisé un point de vue ?

    /DELIBERATE THINKING : Etabli un raisonnement réfléchi convenant bien aux cas complexes.
    Exemple : /DELIBERATE THINKING: Faut-il migrer notre stack technique de WordPress vers Next.js sachant qu’on a 200 pages de contenu et 3 plugins métiers ?

    /REFLECTIVE MODE : Questionne la qualité de l’analyse fournie.
    Exemple : /REFLECTIVE MODE: Mon argumentaire de vente pour convaincre un client B2B est-il vraiment solide ou repose-t-il sur des suppositions ?

    Personnaliser le ton et le registre

    Un même contenu doit souvent être présenté différemment selon qu’il s’adresse à un expert technique, un débutant ou un décideur en entreprise. Ces préfixes permettent d’ajuster automatiquement le niveau de langage, la complexité et le ton employé.

    /ACT AS : Fait endosser un rôle précis à ChatGPT.
    Exemple : /ACT AS: DRH d’une scale-up tech - Rédige un email annonçant une réorganisation interne

    /ROLE: TASK: FORMAT: : Combine rôle, tâche et format souhaité.
    Exemple : /ROLE: Expert SEO TASK: Auditer la stratégie de contenu de ce blog FORMAT: Tableau avec scoring de 1 à 10

    /TONE : Change le ton (formel, technique, accessible, etc.).
    Exemple : /TONE: Professionnel mais bienveillant - Explique à un client pourquoi son projet va dépasser le budget initial

    /JARGON : Utilise un vocabulaire technique destiné aux experts du domaine.
    Exemple : /JARGON: Explique l’optimisation des Core Web Vitals via le lazy loading et le code splitting

    /AUDIENCE : Adapte la réponse à un public défini afin de calibrer la complexité selon les connaissances du lecteur.
    Exemple : /AUDIENCE: Dirigeants non-techniques - Explique pourquoi migrer vers une architecture cloud-native

    /DEV MODE : Adopte un style développeur, focus sur le code.
    Exemple : /DEV MODE: Corrige cette fuite mémoire dans mon hook React useEffect

    /PM MODE : Adopte une posture de chef de projet avec planning, ressources et échéances.
    Exemple : /PM MODE: Planifie la refonte complète d’une app mobile avec 2 devs frontend, 1 backend et 1 designer

    /REWRITE AS : Reformule et transpose le contenu dans un style ou registre spécifique.
    Exemple : /REWRITE AS: Post LinkedIn accrocheur - Transforme mon article technique sur le serverless

    /MULTI-PERSPECTIVE : Explore un sujet sous plusieurs angles et points de vue différents.
    Exemple : /MULTI-PERSPECTIVE: Implémenter l’authentification biométrique - point de vue sécurité, UX et coût de développement

    Éviter les réponses hors sujet

    Il arrive que ChatGPT s’écarte du sujet initial ou généralise trop rapidement. Ces commandes établissent des limites claires pour garder la conversation focalisée sur ce qui vous intéresse vraiment.

    /GUARDRAIL : Impose des limites strictes pour maintenir un périmètre de réponse précis.
    Exemple : /GUARDRAIL: Compare uniquement les performances techniques de React et Vue, ignore l’écosystème et la popularité

    /NO AUTOPILOT : Force une réflexion approfondie en interdisant les réponses automatiques et superficielles.
    Exemple : /NO AUTOPILOT: Pourquoi mon taux de conversion e-commerce stagne à 1.2% - analyse approfondie sans généralités

    /CONTEXT STACK : Maintient en mémoire plusieurs couches de contexte issues des échanges précédents.
    Exemple : /CONTEXT STACK: En tenant compte de mon budget de 10k€, mes 2 devs juniors et le délai de 3 mois qu’on a évoqués

    Conclusion

    Ces commandes constituent un ensemble d’outils puissants pour transformer votre utilisation de ChatGPT. Bien qu’elles ne soient pas officiellement documentées, elles représentent une évolution naturelle dans la manière dont les utilisateurs interagissent avec les modèles d’IA avancés.

    La clé est d’expérimenter progressivement avec ces préfixes pour identifier ceux qui correspondent le mieux à votre flux de travail. Chacun aura ses préférences, et c’est à travers l’usage régulier que vous découvrirez les combinaisons les plus efficaces pour vos besoins spécifiques.

    – Source : https://blog.shevarezo.fr/post/2025/12/10/astuces-meilleures-reponses-chatgpt

  • 2 Votes
    4 Messages
    51 Vues

    Ça me semblerait quand même très gros pour être plus qu’un effet d’annonce, désamorcé ensuite, comme bien d’autres.
    Puis c’est pas cohérent avec America First! pour le coup, business avant tout.

    En revanche, je pense que TRUMP et son administration pourraient avoir (eu ?) une utilisation bien à eux du Cloud Act dans le cadre du business justement.
    https://www.lemagit.fr/definition/CLOUD-Act

  • 5 Votes
    1 Messages
    39 Vues

    Fournir sa photographie et ses empreintes quand on demande son passeport ou sa carte d’identité est plus lourd de conséquence que ce qu’on imagine. Ces données, qui sont enregistrées dans le fichier des « titres électroniques sécurisés » (TES) sont récupérées par la police par un contournement de la loi. La Quadrature du Net a pu obtenir des témoignages et preuves formelles de l’utilisation abusive de ce fichier pour identifier des personnes lors d’enquêtes judiciaires. Nous avons alerté la CNIL sur ce scandale qui était malheureusement prévisible, tant ce fichier TES portait, par son existence même, les risques d’un abus de surveillance par l’État.

    Plus belle la vie du fichier TES

    Pour comprendre comment nous en sommes arrivé·es là, revenons sur les origines de ce fichier. En 2005, un décret autorise pour la première fois l’enregistrement des informations des personnes demandant un passeport (nom, prénom…) dans une puce électronique au sein du passeport, mais également dans un fichier centralisé à destination des agent·es chargé·es de la délivrance des titres d’identité. Ainsi naît le premier fichier TES (qui s’appelait alors « DELPHINE »). En 2008, afin de se conformer à un règlement européen, sont ajoutées au sein de la puce l’image numérisée du visage et des empreintes digitales. Le gouvernement en profite alors pour également les ajouter dans le fichier, au lieu de rester sur une seule conservation décentralisée. Ceci n’était clairement pas un choix neutre puisqu’il s’agit de données biométriques particulièrement sensibles.

    La CNIL, elle, se montrait pourtant défavorable à un enregistrement centralisé d’autant de données dans le fichier TES. En effet, pour la première fois, une base de données faisait un lien entre des données biométriques et une identité civile. L’objectif affiché était de faciliter les démarches administratives et lutter contre la « fraude documentaire ». Mais factuellement, ce lien technique entre identité et données biométrique peut aussi permettre l’identification d’une personne par la comparaison de ses empreintes ou de son visage avec les données contenues dans le fichier. Bien qu’une telle possibilité ne soit pas prévue par les textes, la CNIL estimait tout de même que le choix de centraliser ces données était disproportionné dès lors qu’il existait des modalités de lutte contre la fraude qui apparaissaient tout à la fois aussi efficaces et plus respectueuses de la protection de la vie privée des personnes.

    En 2012, une loi proposée par deux sénateurs de droite a tenté de faire évoluer ce fichier TES, qui contenait alors les données biométriques d’environ 6,5 millions de personnes. Cette loi prévoyait de permettre expressément à la police de se servir dans la base de données pour pouvoir identifier des personnes lors de certaines enquêtes. Cette volonté de mise a disposition du fichier TES à la police a cependant été invalidée par le Conseil constitutionnel. Celui-ci a estimé que l’ampleur de la base de donnée qui contenait des données particulièrement sensibles, couplée avec la nouvelle possibilité technique et légale de permettre une identification par la police – qui n’avait rien à voir avec l’objectif initial de faciliter la délivrance des passeports – engendraient des atteintes trop graves aux libertés. Le Conseil craignait notamment que si ces techniques d’identification n’étaient pas limitées, elles « ne pouvaient qu’être vouées à se développer ».

    C’est surtout en 2016 que ce fichier a fait l’objet de critiques et d’attention médiatique. Le gouvernement Valls avait discrètement fait passer un décret créant un nouveau fichier TES au périmètre drastiquement différent. Désormais, il pouvait aussi contenir les données relatives aux cartes nationales d’identité

    Or, quasiment tous·tes les Français·es en possèdent une. De nombreuses institutions comme la CNIL, l’ANSSI, l’Inria ou le Conseil national du numérique avaient vertement critiqué ce choix, pointant les risques de la centralisation inédite d’informations liées à l’identité, et en particulier les données biométriques, de quasiment toute la population. Elles craignaient aussi bien les fuites de données que les attaques informatiques et les abus étatiques, d’autant que d’autres options moins attentatoires et décentralisées étaient possibles. Face aux critiques, il était notamment répété à l’envi qu’au grand jamais ce fichier ne pourrait servir à faire de l’identification.

    Avec d’autres, nous avions attaqué le fichier devant le Conseil d’État, qui l’a néanmoins validé en 2018. Nous avons tout de même poursuivi le combat. En 2022, avec 15 248 personnes, nous avons déposé une plainte collective devant la CNIL pour dénoncer l’illégalité de ce fichier. L’instruction de cette plainte est toujours en cours et c’est dans le cadre de cette procédure que nous avons envoyé de nouveaux documents à la CNIL pour démontrer ce que nous craignions depuis l’origine : la police se sert allègrement dans le fichier TES.

    Administrations et policiers main dans la main

    Techniquement et légalement, un simple officier de police judiciaire ne peut pas avoir accès au fichier TES. Le décret de 2016 prévoit uniquement que certains agents individuellement nommés et « chargés des missions de prévention et de répression des atteintes aux intérêts fondamentaux de la Nation et des actes de terrorisme » puissent le consulter. Pourtant, le ministère de l’Intérieur a laissé s’installer une pratique qui permet de contourner les interdictions d’accès aux données du TES, et ce, sans aucune restriction et pour n’importe quel type d’affaire.

    Il s’appuie pour cela sur le mécanisme des « réquisitions » judiciaires prévu par le code de procédure pénale. Sur autorisation du procureur de la République, les officiers de police judiciaire peuvent exiger de toute entité publique ou privée de leur fournir les informations qu’elles possèdent et qui seraient utiles pour une enquête. C’est ainsi que la police peut, par exemple, récupérer les enregistrements de vidéosurveillance d’un magasin ou les données personnelles d’une personne précise que détiendrait une banque, la SNCF, un réseau social ou encore la CAF. Ces acteurs sont obligés de répondre sous peine d’une amende de 3 750 euros.

    Aujourd’hui, nous pouvons démontrer que la police utilise ce pouvoir de réquisition abusivement auprès des administrations qui participent à la création et la délivrance des cartes d’identité ou passeports. Nous avons ainsi constaté des demandes des informations d’identité aux agent·es :

    Des « Centres d’expertise et de ressources titres » (CERT). Les CERT sont les services chargés au sein d’une préfecture ou d’une sous-préfecture d’instruire les dossiers de demandes de titres. De l’Agence nationale des titres électroniques (ANTS). C’est l’administration chargée de gérer le système informatique derrière les demandes et délivrances de cartes d’identité et passeports.

    La police n’interroge donc pas directement le fichier TES. Concrètement, elle contourne l’interdiction qui lui est faite de piocher dans le fichier TES en adressant des réquisitions à ceux qui y ont accès. Détournant la procédure, elle s’arroge ainsi un pouvoir de consultation du fichier qui lui est normalement interdit.

    […]

    Suite du pavé : laquadrature.net

    Duboudin: Suppression des balises html égarées par le paste 🙂

  • ChatGPT va débloquer un mode érotique

    1
    0 Votes
    1 Messages
    26 Vues

    L’assistant d’OpenAI s’apprête à traiter les «adultes comme des adultes»: il autorisera dès décembre les conversations érotiques pour ses utilisateurs majeurs.

    Dans un message publié sur X, Sam Altman a expliqué que les garde-fous plus stricts mis en place pour répondre aux préoccupations sur la santé avaient rendu son assistant IA «moins utile/agréable pour de nombreux utilisateurs sans problème de santé mentale».

    Ces mesures de précautions renforcées avaient été instaurées après les poursuites lancées fin août par les parents d’Adam Raine, un adolescent californien qui s’est suicidé après avoir reçu des conseils précis de ChatGPT, selon la plainte.

    Le changement le plus notable interviendra en décembre, une fois déployé un système de vérification d’âge plus complet, qui permettra d’'autoriser «encore plus de choses, notamment les contenus érotiques pour les adultes vérifiés», a conclu le patron d’OpenAI, sans précision sur la méthode.

    Source et plus: https://www.watson.ch/fr/societe/chatgpt/765948330-chatgpt-va-debloquer-un-mode-erotique

    Chatgpt, dit-moi que tu m’aime !!! :lol:

  • 2 Votes
    4 Messages
    87 Vues

    Merde fausse joie.

    J’ai lu “Fâché de sa condamnation, X ferme” puis il y’a eu la suite 🥺

  • 0 Votes
    2 Messages
    41 Vues
    Floorp prend en charge les serveurs mcp depuis peu.

    5b6c32ea-a78c-47c3-ba9e-2bcc0cd10f07-image.png

    Et par exemple:

    Les 10 meilleurs serveurs et clients MCP pour l’automatisation des flux de travail IA en 2025

    https://www.datacamp.com/fr/blog/top-mcp-servers-and-clients

    Et puisqu’on parle de floorp, voilà quelque chose qui va en intéresser certains:

    L’installation des extensions Chrome est désormais prise en charge !
  • Face à Excel et Google Sheets, Proton lance son tableur

    1
    3 Votes
    1 Messages
    37 Vues

    Après un éditeur de texte, Proton étoffe sa suite collaborative avec un tableur nommé Sheets. Il mise sur un chiffrement de bout en bout des données pour se démarquer de la concurrence.


    Avec Sheets, Proton se lance sur le marché du tableur avec la sécurité des données comme différenciateur. (Crédit: Proton)

    Petit à petit, la suite Workspace de Proton s’enrichit pour être une alternative européenne et sécurisée aux offres de Microsoft et Google. En juillet 2024, la société suisse avait dévoilé son éditeur de texte Docs. Aujourd’hui, il lance Sheets, un tableur avec un ensemble de fonctionnalités. Ainsi l’outil est capable de transformer les données en graphiques ou diagrammes pour en faciliter l’analyse. Sans nécessiter de compétences particulières, la majorité des formules courantes sont prises en charge et des calculs, qu’ils soient simples ou complexes, sont exécutés sans difficulté.

    La plateforme inclut un mode de collaboration en temps réel : plusieurs utilisateurs peuvent travailler simultanément sur une même feuille et voir instantanément les modifications apportées. L’accès aux documents est sécurisé depuis n’importe quel appareil, et les droits de consultation ou de modification peuvent être définis avec précision, avec la possibilité de retirer un accès à tout moment. Les fichiers importés au format CSV ou XLS bénéficient automatiquement du chiffrement de bout en bout. « Une alternative robuste et respectueuse de la vie privée, qui remet le contrôle, la sécurité et la confiance entre les mains des utilisateurs », résume dans un communiqué Anant Vijay Singh, responsable produit Proton Drive.


    Le tableur de Proton intègre différentes fonctionnalités pour rivaliser avec les concurrents Excel de Microsoft et Google Sheets. (Crédit Proton)

    Intégré dans Drive

    La question de la protection de la confidentialité des données est la marque de fabrique de Proton. « Sheets applique les mêmes standards de sécurité et de conformité que l’ensemble de nos services », indique le responsable. Certifiée ISO 27001, l’entreprise a également réussi un audit SOC 2 Type II en juillet 2025, attestant de l’efficacité de ses contrôles.

    Sur la partie tarifaire, Sheets comme Docs sont intégrés dans l’offre Proton Drive. Pour les professionnels, ils peuvent choisir une formule à 10 € HT/ mois avec 1 To de stockage ou la Business Suite à 15 € HT/ mois comprenant plus de fonctionnalités. Pour mémoire, Proton a aussi lancé récemment son assistant IA Lumo capable d’analyser des ensembles de données, de rédiger des documents, de synthétiser des notes de réunion ou de planifier des séances de réflexion.

    Source : lemondeinformatique.fr

  • 3 Votes
    3 Messages
    61 Vues

    @Aerya Comme tous les autres.

    Je viens de le tester sur un article du genre sac de noeuds, il semble bien se débrouiller pour extraire les bonnes infos et les structurer comme il faut. (au moins aussi bien que chatgpt).

    Vu qu’il ne demande pas de login, il ne retient pas les sessions précédentes, mais c’est à la fois le prix à payer (pour le moment) et la garantie de la vie privée et pour un résumé, c’est pas un problème, je ne lui demande pas de me faire des séances de psychiatrie. 🙂

    Pour moi, tant que c’est gratuit, j’adopte.

  • 1 Votes
    6 Messages
    114 Vues
    Plus de détails pour éclaircir le mic-mac en cours

    Netflix a remporté l’enchère pour les activités de streaming et de production cinématographique de Warner Bros. Discovery (WBD) pour 72 milliards de dollars en actions, incluant HBO et HBO Max, mais excluant les chaînes câblées, qui seront scindées en une nouvelle entité, Discovery Global, d’ici le T3 2026.

    Paramount, en revanche, refuse d’abandonner et lance une offre publique d’achat hostile pour l’intégralité de WBD (y compris Discovery Global), proposant 108,4 milliards de dollars (30 $ par action, soit une prime de 139 %). Paramount accuse WBD d’avoir ignoré ses six offres précédentes et affirme que sa proposition est meilleure pour les actionnaires.

    WBD a rejeté l’offre de Paramount, estimant que la scission en deux sociétés est plus avantageuse à long terme. Paramount critique l’accord Netflix, arguant qu’il met en danger les actionnaires et menace les salles de cinéma et les créateurs, notamment en Europe, où la fusion créerait un monopole de la SVOD.

    Netflix, via Ted Sarandos, qualifie l’offre de Paramount de « prévisible » et affirme que son accord est bénéfique pour les consommateurs et les emplois.

    Les obstacles réglementaires sont majeurs :

    Aux États-Unis, la fusion Netflix-WBD pourrait être bloquée par le DOJ, mais l’influence politique de Trump (proche de Paramount) complique le scénario. En Europe, la fusion risque d’être jugée anticoncurrentielle. Paramount, elle, a déjà réussi à fusionner avec Skydance sous Trump, mais des allégations de paiements à Trump (via CBS News) soulèvent des questions éthiques.

    Les relations entre Trump et Paramount se détériorent après une interview controversée sur 60 Minutes, ce qui pourrait affaiblir les chances de Paramount auprès du DOJ.

    Enfin, Paramount promet de maintenir ou d’augmenter les sorties en salles, contrairement à la perception que Netflix réduirait la distribution cinématographique — bien que Sarandos ait assuré que le calendrier actuel de WBD serait respecté jusqu’en 2029.

    Conclusion :
    La bataille pour WBD est loin d’être terminée. Elle mêle milliards de dollars, enjeux réglementaires, pressions politiques et tensions industrielles. Netflix a un accord, mais Paramount ne lâche rien — et le pouvoir de décision repose désormais entre les mains des régulateurs et des actionnaires.

    Source: https://arstechnica.com/gadgets/2025/12/paramount-says-it-could-get-antitrust-approval-for-wbd-before-netflix/

    Structuré par Euria

  • 2 Votes
    1 Messages
    41 Vues

    Un rapport de l’UE tire des leçons de l’ère Napster.

    Une analyse approfondie sur l’entraînement de l’IA et le droit d’auteur, commandée par le Parlement européen, met en garde contre la répétition des erreurs du début des années 2000, période marquée par l’essor du piratage en ligne. Plutôt que de ruiner les entreprises d’IA par des poursuites judiciaires ou de s’appuyer sur des mécanismes d’« exclusion », le rapport préconise les « licences légales » comme solution optimale. Celles-ci autorisent de fait l’utilisation d’œuvres protégées par le droit d’auteur pour l’entraînement de l’IA et devraient, à terme, profiter aux créateurs et aux entreprises du secteur.

    Lorsque Napster s’est installé sur des millions d’ordinateurs de bureau Il y a 25 ans, l’industrie musicale était terrifiée par cette menace existentielle apparente.

    Déterminée à éradiquer le problème, la réaction légale fut immédiate. Moins d’un an plus tard, la RIAA portait plainte contre Napster, et des artistes comme Metallica et Dr. Dre suivirent rapidement.

    Cette stratégie sembla fonctionner, puisque le procès intenté par la RIAA mit fin à Napster deux ans après son lancement. Cependant, le mal était fait, et la « magie » de l’accès illimité inspira de nombreuses nouvelles applications de partage, telles que LimeWire et Kazaa. Ces nouvelles applications finirent, elles aussi, par rencontrer des difficultés.

    Rapport : L’économie du droit d’auteur et de l’IA

    La réaction juridique massive contre les logiciels de partage de fichiers au début des années 2000 présente des similitudes avec les conflits actuels autour du droit d’auteur entre les ayants droit et les entreprises spécialisées en IA. Nombre d’entre eux perçoivent l’IA comme une menace existentielle, et des dizaines de procès retentissants sont en préparation. Parallèlement, les législateurs examinent la nécessité d’une intervention.

    D’après un nouveau rapport préparé pour le Parlement européen, les poursuites judiciaires ne constituent pas une solution adéquate au piratage et ne permettront pas non plus de résoudre les défis actuels posés par l’IA. Intitulé « L’économie du droit d’auteur et de l’IA » , ce rapport a été commandé par la commission des affaires juridiques (JURI) du Parlement européen afin d’éclairer l’élaboration de la législation future.

    4d24e1e6-7538-420e-ba0a-7c67e4636efb-image.png

    L’auteur du rapport, Christian Peukert , professeur de numérisation, d’innovation et de propriété intellectuelle, a mené par le passé des recherches approfondies sur les défis liés au droit d’auteur en matière d’IA et de piratage.
    L’application de la loi ne fonctionne pas

    La conclusion générale est que multiplier les obstacles à l’utilisation de contenus pour l’entraînement des IA nuira à l’économie et au public. L’UE devrait plutôt s’inspirer des leçons tirées du piratage en ligne.

    L’un des enseignements à tirer est que les premières actions et législations antipiratage, telles que les poursuites contre Napster ou les nouvelles lois antipiratage en France et en Suède, se sont avérées largement inefficaces. Ces mesures ont généralement entraîné des hausses de ventes éphémères, rapidement éphémères, les pirates se tournant simplement vers d’autres sites et services.

    Le tournant décisif s’est produit avec la mise à disposition du public des téléchargements légaux et des services de streaming. Tout a commencé avec iTunes, pionnier du téléchargement de musique, suivi par des services de streaming comme Spotify et Netflix.

    « Ces innovations ont réussi à modifier les comportements des consommateurs en faveur d’une consommation légale. Les données agrégées indiquent que la consommation de musique illégale est en baisse constante depuis 2010, tandis que la consommation de films et de séries télévisées illégales est restée stable et a diminué plus lentement », écrit le professeur Peukert.

    Licences obligatoires et légales

    Au lieu de freiner le développement de l’IA en limitant l’accès aux contenus protégés par le droit d’auteur, le rapport propose un système de licences obligatoires et légales. Ce système garantirait aux développeurs d’IA le droit d’utiliser toutes les œuvres publiées. En contrepartie, une autorité indépendante fixerait un taux de redevance pour indemniser les ayants droit.

    Cela autoriserait de fait l’utilisation d’œuvres protégées par le droit d’auteur pour l’entraînement des IA, comme le font déjà certains pays. Cependant, dans ce cas, les ayants droit recevraient une compensation.

    Les licences légales diffèrent des accords de licence conclus avec les services de streaming en ligne tels que Spotify et Netflix. Le rapport le reconnaît, mais souligne que les modèles de licence directe ne constituent pas une solution optimale pour l’entraînement des IA à grande échelle.

    Si Spotify collabore avec un nombre limité de maisons de disques et d’éditeurs, ses modèles d’IA nécessitent des données d’entraînement provenant de l’ensemble d’Internet, notamment des milliards de textes, d’images et de vidéos. Le rapport affirme qu’identifier et négocier avec des millions de propriétaires de sites web, de créateurs et de photographes est pratiquement impossible.

    Cette approche de licence individuelle serait particulièrement problématique pour les petites startups spécialisées en IA, qui n’ont pas les ressources nécessaires pour négocier des milliers d’accords.

    Aucune possibilité de retrait

    L’aspect le plus controversé du rapport est sans doute sa mise en garde contre un modèle de « désinscription » permettant aux détenteurs de droits d’exclure leur contenu. Il soutient que ces désinscriptions créent des « lacunes » dans les données d’entraînement, ce qui risque de biaiser les modèles d’IA.

    Du point de vue du bien-être économique, le rapport classe le modèle de « désinscription » comme la pire option possible, pire encore que de ne rien faire.

    « Lorsqu’un titulaire de droits exerce son droit de retrait, il ne tient pas compte du fait que cela diminue la valeur pour la société », souligne le rapport. Ce dernier conclut que les titulaires de droits ne devraient en aucun cas pouvoir se soustraire à l’entraînement de l’IA.

    La leçon de Napster

    Dans l’affaire Napster il y a 25 ans, le tribunal a explicitement rejeté le système de licences légales car il permettrait à un contrevenant de payer une amende pour continuer à enfreindre la loi.

    Le rapport suggère que, cette fois-ci, il faudrait inverser le raisonnement. L’IA promet des avantages considérables pour les consommateurs, estimés à 97 milliards de dollars par an rien qu’aux États-Unis ; c’est pourquoi le rapport soutient que le développement de l’IA ne devrait pas être freiné.

    Pour la formation en IA, les entreprises devraient être autorisées à « poursuivre leurs activités » moyennant le paiement d’une redevance, car restreindre l’accès aux œuvres protégées par le droit d’auteur détruirait une trop grande valeur économique.

    « L’intelligence artificielle diffère considérablement des cas historiques de piratage en ligne, car elle génère d’importants bénéfices nets pour la société tout en utilisant des œuvres protégées par le droit d’auteur. Par conséquent, un régime permettant la poursuite des activités est dans l’intérêt de la société », indique le rapport.

    S’appuyant sur ces enseignements historiques et sur des modèles détaillés de bien-être économique, le rapport considère les licences légales obligatoires comme la meilleure solution pour relever les défis posés par le droit d’auteur de l’IA en Europe. Reste à savoir si les titulaires de droits et les législateurs parviendront à un accord.

    Source: https://torrentfreak.com/eu-report-distills-ai-training-lessons-from-napster-piracy-era-dont-sue-license/

  • 1 Votes
    5 Messages
    76 Vues

    @patricelg a dit dans Pourquoi les fans de jeux vidéo sont devenus la cible préférée des hackers :

    Vous savez pourquoi les hackers ne sortent que très peu de chez eux ?

    Spoiler

    Par crainte d’attraper un virus !

    :mouhaha: :loool: :pas_taper: :clac:

    @Psyckofox a dit dans Pourquoi les fans de jeux vidéo sont devenus la cible préférée des hackers :

    @patricelg

    Ho purée mazette 🤣

    T’as bien fait de sortir 😁

    :loool:

  • 2 Votes
    1 Messages
    39 Vues

    Analyse approfondie de cette problématique de norme d’affichage:

    Lorsque Valve a annoncé le mois dernier sa nouvelle console Steam Machine , certains joueurs attentifs ont peut-être été surpris de constater que la fiche technique officielle mentionnait la prise en charge de la sortie HDMI 2.0, plutôt que la norme HDMI 2.1, plus récente et offrant une bande passante supérieure, introduite en 2017. Valve explique désormais à Ars que, bien que la console soit compatible HDMI 2.1, l’entreprise rencontre des difficultés pour assurer une prise en charge complète de cette norme en raison de pilotes Linux « encore en développement côté logiciel ».

    Comme nous l’avions indiqué l’année dernière , le HDMI Forum (qui gère les spécifications officielles des normes HDMI) a officiellement bloqué toute implémentation open source de HDMI 2.1. Cela signifie que les pilotes AMD open source utilisés par SteamOS ne peuvent pas implémenter pleinement certaines fonctionnalités spécifiques à la norme de sortie mise à jour.

    « À l’heure actuelle, une implémentation open source de HDMI 2.1 n’est pas possible sans enfreindre les exigences du Forum HDMI », avait déclaré à l’époque Alex Deucher, ingénieur chez AMD.

    Ils font ce qu’ils peuvent

    Cette situation a causé d’importants problèmes à Valve, qui a indiqué à Ars avoir dû valider le matériel HDMI 2.1 de la Steam Machine sous Windows lors des tests. Concernant les performances HDMI sous SteamOS, un représentant de Valve a déclaré à Ars : « Nous travaillons à débloquer la situation. »

    Cela inclut le déblocage des limites de résolution et de fréquence d’images de l’HDMI 2.0, qui plafonnent à 60 Hz pour une sortie 4K , selon la norme officielle. Valve a toutefois indiqué à Ars avoir pu augmenter cette limite à « 4K à 120 Hz », comme indiqué dans la fiche technique de la Steam Machine, grâce à une technique appelée sous-échantillonnage de la chrominance .

    Ce procédé consiste essentiellement à compresser les données de luminance qui définissent la gamme de couleurs du signal vidéo. Ainsi, SteamOS peut optimiser la résolution et la fréquence d’images malgré la bande passante plus limitée des pilotes HDMI 2.0 de Linux.

    D’après la plupart des avis, la réduction des informations de couleur due au sous-échantillonnage de la chrominance peut affecter sensiblement la qualité globale de l’affichage vidéo. Cependant, les testeurs d’écran de RTINGS estiment que cela ne devrait pas « affecter significativement la qualité d’image » et que seuls « certains jeux PC, notamment ceux qui mettent l’accent sur le texte, pourraient souffrir » d’un léger flou au niveau des mots affichés à l’écran. Les joueurs souhaitant éviter ce problème peuvent utiliser la sortie DisplayPort 1.4 de la Steam Machine, qui offre une bande passante supérieure à celle du HDMI 2.1 (et qui peut être convertie en signal HDMI à l’aide d’un simple adaptateur). (mais je ne suis pas sûr que le displayport soit compatible VRR avec les cartes NVidia qui utilise des puces G-SYNC).

    L’absence de prise en charge complète de la norme HDMI 2.1 limite également la gestion des taux de rafraîchissement adaptatifs par la Steam Machine. Valve indique que la Steam Machine prend actuellement en charge la norme FreeSync d’AMD via HDMI, mais ne peut pas prendre en charge la norme HDMI-VRR plus générale autorisée par la norme 2.1, en raison des problèmes de pilotes mentionnés précédemment. Cela pourrait poser problème dans certains salons, car de nombreux téléviseurs compatibles HDMI-VRR ne prennent pas en charge spécifiquement la norme FreeSync d’AMD (consultez une liste comme celle-ci pour savoir lesquels).

    Ces problèmes de normes vidéo ne constituent pas un obstacle majeur pour le projet Steam Machine, et la plupart des joueurs ne remarqueront probablement même pas l’absence de ces fonctionnalités. Néanmoins, cette situation met en lumière certains points de conception que Valve doit prendre en compte lors du développement de nouvelles consoles de jeux sous Linux.

    Source: https://arstechnica.com/gaming/2025/12/why-wont-steam-machine-support-hdmi-2-1-digging-in-on-the-display-standard-drama/

  • Comment l’IA assèche le monde de l’électronique

    1
    3 Votes
    1 Messages
    41 Vues

    Votre nouvel ordinateur ou smartphone va bientôt vous coûter plus cher. Et c’est un peu de la faute de ChatGPT

    Dans la Mecque des bricoleurs informatiques, le quartier scintillant de néons de Akihabara, à Tokyo, au Japon, quelques geeks ont récemment vu apparaître des panonceaux peu ordinaires : des restrictions d’achat sur les disques durs et autres barrettes de mémoire vive (RAM), particulièrement utiles pour le stockage d’informations et la rapidité de traitement d’un ordinateur. Pas plus de huit articles dans le panier, signalent des affiches. Sur les sites spécialisés, les clients ont vite remarqué l’emballement : le prix de certaines RAM a crû de 500 %, celui de disques durs de 100 %. Tous les signes avant-coureurs d’une pénurie.

    Quelques fabricants d’ordinateurs, comme Dell ou HP, l’ont confirmé sans détour ces dernières semaines : les prix vont grimper. Car ces composants représentent jusqu’à un cinquième de leur tarif final. Et la contagion pourrait s’étendre au-delà. Des smartphones aux véhicules modernes, en passant par les simples clés USB et les équipements médicaux : toute l’électronique mondiale a également besoin de ces pièces dédiées à la mémoire pour son bon fonctionnement. “Les appareils les plus touchés seront clairement les smartphones d’entrée de gamme à moins de 300 euros, mais chaque fabricant fixera sa stratégie en fonction de la variation du prix d’achat et sa capacité à bien négocier”, a estimé un responsable de Motorola dans Le Parisien. La réaction d’Apple est très attendue. Que se passe-t-il au juste ?

    Le boom des puces HBM

    La cause se trouve loin des étals d’Akihabara : dans les salles climatisées des data centers. La demande en intelligence artificielle générative dope désormais la croissance en composants mémoire. Les agents de conversation comme ChatGPT, Claude, Gemini ou Le Chat en ont besoin pour mémoriser les conversations et y répondre de manière pertinente. Ces composants mémoire permettent aussi aux utilisateurs de réaliser des commandes (ou prompts) plus longues. Ce que l’on appelle le “contexte”. Aux débuts de ChatGPT, il y a trois ans, celui-ci s’étendait à environ 4 000 “tokens” ou 3 000 mots - un très long article de presse. Aujourd’hui, il dépasse allègrement les 200 000 tokens, voire un million. Au moins cinq à dix romans complets.

    Tous les serveurs IA requièrent donc aujourd’hui une puce spéciale, dite HBM (High Bandwitch Memory), pour mémoire à large bande passante. Moins stratégiques que les désormais célèbres puces “GPU”, décisives pour le calcul, elles demeurent néanmoins indispensables pour la montée en gamme des modèles d’intelligence artificielle générative. Cela s’est d’ailleurs matérialisé dans les ventes. “Les produits mémoire occupaient la deuxième place en termes de ventes, avec une augmentation de 78,9 % en 2024 pour atteindre un total de 165,5 milliards de dollars”, note l’une des principales associations de semi-conducteurs au monde, la SIA, dans son rapport 2025. La World Semiconductor Trade Statistics estime quant à elle que la mémoire devrait connaître le plus grand bond en termes de vente en 2026, avec plus de 40 % de croissance. La puce HBM y contribuera en majorité. OpenAI a notamment signé des accords préliminaires avec Samsung et SK Hynix pour son projet Stargate, qui demande jusqu’à 900 000 plaquettes HBM par mois d’ici 2029, ce qui représente le double de la production mondiale actuelle.

    Le problème est que ce composant est fabriqué par les mêmes constructeurs que les autres puces mémoires qui alimentent les smartphones ou les ordinateurs, sur une technologie antérieure dite DRAM. Deux acteurs sud-coréens, SK Hynix et Samsung, ainsi qu’un américain, Micron, règnent sans partage sur ce marché. Or “la technologie HBM se vend plus cher que la DRAM, et les marges sont meilleures”, note Khaled Maalej, patron de l’entreprise de semi-conducteurs Vsora. La tentation de délaisser la production des autres puces est forte. Micron a ainsi abandonné, cette semaine, la production de mémoire pour le grand public, se concentrant sur les usages professionnels liés à l’IA. Samsung a un temps pensé à faire de même, avant de rétropédaler, selon Reuters. SK Hynix a atteint des sommets en Bourse grâce au HBM, une catégorie qu’elle domine technologiquement à la manière de Nvidia dans les GPU. Pas de quoi, donc, arranger la pénurie naissante.

    “L’irrationalité de l’IA n’a pas été envisagée”

    Claire Troadec et Pierre Cambou, analystes au sein de Yole Group, une société spécialisée dans la recherche sur les semi-conducteurs, décrivent un “empilement de tensions”. L’IA absorbe une part croissante de la capacité mondiale, les fabricants de smartphones remplissent leurs entrepôts pour la fin d’année et le Nouvel an chinois - des périodes de forte vente -, et la mémoire reste un produit historiquement volatil, dont les produits sont interchangeables. Trois forces qui, combinées, créent un marché instable, presque spéculatif.

    Le retour à la normale ne se produira pas avant fin 2026, estiment Claire Troadec et Pierre Cambou : “Ce serait se mentir que de croire que la situation est temporaire.” Il faut que de nouvelles usines soient construites. Mais l’industrie des puces ne lance pas ce genre de chantier à la légère. Certains cycles sont brutaux. Il y a deux ans, une chute de la demande en mémoire avait entraîné des pertes importantes au sein de plusieurs entreprises du secteur. Toutes ne se sont pas encore remises du choc. Une même prudence est observée dans le domaine du HBM. Si la “bulle IA” explose, les commandes pourraient se tarir.

    En attendant, les alternatives à Micron, SK Hynix et Samsung sont rares. Toute première gamme de puces à avoir été lancées, les “mémoires” ont perdu de leur attrait au fil des décennies face aux puces logiques, comme les CPU ou les GPU. Aujourd’hui, ces dernières accaparent la majorité des investissements dans l’IA. Mais cette crise pourrait toutefois profiter à certains. Les fabricants chinois de mémoire DRAM d’entrée de gamme, comme ChangXin Memory Technologies (CXMT) ou YMTC, tiennent ici une opportunité unique de monter en gamme, observent les stratèges de Yole Group. Et de récupérer des parts de marché qu’abandonnent les fabricants sud-coréens et américains. L’Europe, elle, reste spectatrice. Depuis la faillite de l’allemand Qimonda en 2009, elle ne produit presque plus de puces mémoire sur son sol.

    “L’industrie des puces n’a jamais vécu une croissance aussi forte sur la demande en computing, c’est un élément nouveau”, pointe Khaled Maalej, qui y voit un bouleversement plus profond. “Un vrai retournement se produit. Avant, le marché des puces était dicté par le smartphone, le sans-fil (wireless). Maintenant c’est le data center.” Un constat partagé par les analystes de Yole Group. “L’irrationalité de la demande en IA n’avait pas été envisagée. Depuis 2024, nous augmentons nos prévisions en termes de demande à chaque trimestre. Du jamais-vu. Il y a une dizaine de projets d’usines dans le monde, à plusieurs milliards de dollars. Et cela ne suffit toujours pas.” D’autres secousses sont à prévoir.

    Source: https://www.lexpress.fr/economie/high-tech/comment-lia-asseche-le-monde-de-lelectronique-il-y-a-un-vrai-retournement-ZQB72VXR3VCCPA5TBV3S2UMHY4/

  • 1 Votes
    2 Messages
    63 Vues

    perso je fais mes sauvegardes sur 3 disques distinct dont un à froid, une tous les jours, une toutes les semaines et une tous les mois

    le journalier me sert pour les documents, les trucs rapide
    celui de la semaine c’est pareil mais plus large
    et celui du mois c’est sauvegarde du système + image

    tous les mois, je sors mon disque, je le range dans un endroit sur et bien à l’abri

    et je change de disque

    disque A janvier
    disque B février
    disque C mars
    etc…

    j’ai 3 disques de 6 to, 3 disque de 1 to et 3 clés usbs de 128 go (Kingston DataTraveler), je les change tous les 1 an environ et je garde toujours les anciennes, on ne jamais, idem pour les disques durs.

    je stock les 1 jour / 1 semaine au même endroit, et les disques durs sont dans un autre endroit, en cas de cambriolage ou incendie ou autre.

    je ne sais pas si mon workflow de sauvegarde est bien, mais il me convient parfaitement, j’ai déjà eu quelques accidents et grâce à mes sauvegardes, je n’ai eu aucune perte.

    Avec Windows 11 aussi, j’ai activé l’historique des fichiers, ça c’est vraiment top.

    Si j’avais eu tout ça quand j’ai fait les conneries du début, j’aurai perdu aucun fichier que je regrette tellement encore aujd 😞

    Après, rien n’est infaillible, les disques peuvent sauter en même temps, ou je sais pas mais je pense que je limite pas mal la casse.

    J’utilise la Sauvegarde Windows Standard et le magnifique https://freefilesync.org/

  • 1 Votes
    12 Messages
    289 Vues
    En Australie, Meta exclut les moins de 16 ans de ses plateformes, avant l’entrée en vigueur d’une loi les excluant des réseaux sociaux

    Alors que l’Australie s’apprête à exclure massivement les mineurs des réseaux sociaux, Meta et YouTube alertent sur les limites et les paradoxes d’une mesure inédite à l’échelle mondiale.

    Le géant technologique américain Meta a annoncé, jeudi 4 décembre, commencer à supprimer les comptes des utilisateurs australiens de moins de 16 ans sur Instagram, Threads et Facebook, devançant leur exclusion généralisée des réseaux sociaux le 10 décembre − une première mondiale voulue par Canberra pour les protéger des algorithmes « prédateurs ».

    « Nous mettons tout en œuvre pour supprimer tous les comptes des utilisateurs que nous estimons être âgés de moins de 16 ans d’ici au 10 décembre, mais la mise en conformité avec la loi sera un processus continu en plusieurs étapes », a déclaré un porte-parole du groupe.

    Il a précisé que ces mêmes utilisateurs peuvent toujours enregistrer et télécharger leur historique en ligne. Et, « avant vos 16 ans, nous vous informerons que vous serez bientôt autorisés à retrouver l’accès à ces plateformes, et vos contenus seront rétablis exactement tels que vous les aviez laissés », a-t-il ajouté.

    Le géant technologique américain Meta a annoncé, jeudi 4 décembre, commencer à supprimer les comptes des utilisateurs australiens de moins de 16 ans sur Instagram, Threads et Facebook, devançant leur exclusion généralisée des réseaux sociaux le 10 décembre − une première mondiale voulue par Canberra pour les protéger des algorithmes « prédateurs ».

    « Nous mettons tout en œuvre pour supprimer tous les comptes des utilisateurs que nous estimons être âgés de moins de 16 ans d’ici au 10 décembre, mais la mise en conformité avec la loi sera un processus continu en plusieurs étapes », a déclaré un porte-parole du groupe.

    Il a précisé que ces mêmes utilisateurs peuvent toujours enregistrer et télécharger leur historique en ligne. Et, « avant vos 16 ans, nous vous informerons que vous serez bientôt autorisés à retrouver l’accès à ces plateformes, et vos contenus seront rétablis exactement tels que vous les aviez laissés », a-t-il ajouté.

    Le gouvernement australien a reconnu que l’interdiction serait loin d’être parfaite au début et que certains jeunes Australiens passeraient entre les mailles du filet avant que le système ne soit amélioré. Le premier ministre australien, Anthony Albanese, a qualifié les réseaux sociaux de « plateformes de pression sociale, vectrices d’anxiété, un outil pour les arnaqueurs et, pire que tout, pour les prédateurs en ligne ».

    Les opérateurs en infraction s’exposeront à des amendes de près de 28 millions d’euros sans « avancées raisonnables » pour se mettre en conformité. Cependant, ce concept n’a pas été clairement expliqué par les autorités.

    La ministre des communications australienne, Anika Wells, a qualifié la position de l’entreprise de « franchement étrange ». « Si YouTube nous rappelle à tous qu’il n’est pas sûr et qu’il contient des contenus inappropriés pour les utilisateurs soumis à une restriction d’âge, c’est un problème que YouTube doit résoudre », a-t-elle déclaré. Pour M<sup>me</sup> Wells, « cette loi en particulier ne résoudra pas tous les problèmes liés à Internet, mais elle permettra aux enfants de devenir plus facilement une meilleure version d’eux-mêmes ».

    Source : lemonde.fr