Actualités High-Tech

2.2k Sujets 10.8k Messages
  • 1 Votes
    12 Messages
    911 Vues

    C’est important de rendre accessibles les moyens de s’émanciper intellectuellement et techniquement…même si certains rament a s’en emparer…
    D’ailleurs moi-même je ne comprends rien très régulièrement 😁…alors j’apprends…tout du moins j’essaie.
    Ce genre d’initiative me parait être de l’ordre de l’intérêt public. Moins le web est soumis à la centralisation des données, à la Silicon valley et consorts, mieux il se portera…je dirais même mieux le monde se portera a mon humble avis…
    Disons qu’on a la demonstration ces derniers temps, que quand tu laisses les manettes à des gens aux intentions discutables, l’équilibre mondial est mis à rude épreuve.
    Du coup plus de manettes…plus de maitre, ni de dieu…😂

  • 0 Votes
    1 Messages
    1 Vues

    Anthropic a lancé jeudi une nouvelle version de son modèle d’intelligence artificielle générative Claude. De quoi ajouter une nouvelle corde à son arc dans sa rivalité de plus en plus marquée avec OpenAI et son ChatGPT.

    La start-up de San Francisco, fondée en 2021 par des anciens d’OpenAI, a le vent en poupe depuis la livraison en quelques mois d’une série d’outils qui ont impressionné les développeurs informatiques et effrayé les actionnaires d’éditeurs de logiciel.

    Les titres de plusieurs éditeurs ont souffert en Bourse cette semaine face aux interrogations des investisseurs sur l’avenir de leur modèle économique compte tenu des performances de l’IA générative dans la gestion des données marketing, juridiques ou commerciales.

    Là où OpenAI le domine très largement auprès du grand public avec ChatGPT, Anthropic jouit avec Claude d’une crédibilité supérieure auprès des codeurs ainsi que chez les entreprises privilégiant la sécurité et la fiabilité.

    Anthropic affirme que sa nouvelle version, Claude Opus 4.6, constitue un tournant dans la manière pour l’IA de gérer des tâches professionnelles complexes.

    Selon l’entreprise dirigée par la fratrie Amodei, la nouvelle mouture peut «assembler des documents réglementaires, des rapports de marché et des données internes afin de produire des analyses qui prendraient plusieurs jours à un analyste».

    Opus 4.6 est aussi capable de manier plusieurs outils en parallèle et de s’auto-corriger au cours d’une même tâche. Le modèle «s’approche beaucoup plus près d’un rendu final de haute qualité du premier coup que n’importe quel modèle précédent», assure le communiqué, promettant des documents, des feuilles de calcul et des diapositives nécessitant «moins d’allers-retours» d’édition définitive.

    Super Bowl

    Ce lancement s’ajoute à la commercialisation d’une trentaine d’outils ces derniers mois. Claude Code, son très populaire outil de codage, a dépassé le milliard de dollars de chiffre d’affaires six mois après son lancement public.

    Mais ses rentrées d’argent sont loin de compenser le coût monumental de la puissance de calcul et Anthropic, comme OpenAI, est encore très loin de la rentabilité. La rivalité entre les deux voisins de San Francisco dépasse les seules performances techniques.

    Anthropic s’est engagé à écarter toute publicité de son IA générative, allant jusqu’à moquer le choix d’OpenAI de tester cette source de revenus dans un spot prévu pour le Super Bowl dimanche, le plus grand événement sportif de l’année aux Etats-Unis.

    Le PDG d’OpenAI, Sam Altman, a vivement réagi, sur X, en qualifiant Anthropic de «malhonnête» et «autoritaire». «Anthropic propose un produit coûteux aux personnes riches», a-t-il accusé, défendant ChatGPT comme un produit qui met l’IA «à la portée de milliards de personnes qui ne peuvent pas payer d’abonnement».

    Anthropic se vante au contraire de ne compter que sur les contrats d’entreprises et les abonnements. Selon les médias américains, Anthropic prévoit une offre publique d’achat pour ses employés qui valoriserait l’entreprise à environ 350 milliards de dollars, une somme colossale pour une entreprise vieille de quatre ans, mais inférieure aux 800 milliards de dollars annoncés par OpenAI pour son prochain tour de table.

    La Silicon Valley et les marchés attendent fébrilement l’officialisation de leurs projets d’entrée en Bourse dans l’année.

    Source: https://www.bluewin.ch/fr/infos/sciences-technique/ia-anthropic-sort-un-nouveau-mod-le-3083451.html

  • Whatsapp sans pub payant

    7
    0 Votes
    7 Messages
    78 Vues

    @Raccoon il existe bien une version “pro” mais cela semble plus lié à son utilisation pour les entreprises que de l’utilisation des données.
    @duJambon c’est l’enfer cette info…et pour faire migrer les utilisateur vers une plateforme moins invasive ça va être long et compliqué…

  • VLC propose enfin un mode sombre

    14
    2 Votes
    14 Messages
    131 Vues

    @Violence En terme d’image certainement, par contre au niveau du son pour moi c’est la meilleure avec des possibilités de réglages très fins.

    d9cf25d9-695c-4e08-b254-42b1e5786580-Live Long & Prosper.jpg 

  • 3 Votes
    1 Messages
    25 Vues

    Les marchés financiers mondiaux viennent de vivre un événement encore jamais vu dans l’histoire de la tech. Le 3 février 2026, l’annonce par Anthropic d’un plugin juridique pour son assistant Claude Cowork a déclenché un mouvement de panique d’une ampleur rarement vue dans le secteur technologique. En l’espace de quelques heures, 285 milliards de dollars de capitalisation boursière se sont évaporés sur les valeurs logicielles, de services IT et de données. Le lendemain, la chute s’est poursuivie sur une deuxième journée consécutive, confirmant que ce n’était pas un simple accident de marché mais bien un changement de perception de l’IA par les investisseurs.

    Source: https://www.presse-citron.net/285-milliards-dollars-evapores-anthropic-provoque-krach-boursier-historique/

    S’il y a bien des faiseurs d’embrouilles sur terre, ceux-ci viennent de prendre du plomb dans l’aile. 🙂

    Reste à voir quel crédit accorder a une IA qui vit dans la jungle.

  • 1 Votes
    4 Messages
    50 Vues

    @Violence a dit dans Microsoft : malgré des investissements massifs, personne (ou presque) ne veut payer pour Copilot :

    Perso, nous sommes sur o365 au boulot et copilot pro est gratos pour nous.

    C’est parce que vous avez des licences Business Premium, les plus fournies en fonctionnalités.

  • 2 Votes
    6 Messages
    67 Vues
    Perquisitionné, X dénonce un «acte judiciaire abusif»

    Le réseau social, propriété d’Elon Musk, parle même de «motivations politiques» ayant présidé à ces investigations poussées à son encontre. «Les allégations ayant justifié cette perquisition sont infondées et X réfute catégoriquement avoir commis la moindre infraction», a affirmé le réseau social dans un post.

    «Cette mise en scène ne fait que renforcer (notre) conviction que cette enquête viole le droit français, constitue un détournement de procédure et porte atteinte à la liberté d’expression»

    Source et plus: https://www.20min.ch/fr/story/france-perquisitionne-x-denonce-un-acte-judiciaire-abusif-103499153

  • 3 Votes
    8 Messages
    110 Vues

    Au fond, cette prise de pouvoir des bots avec Moltbook en beta test n’est que le reflet dans le miroir des z’humains qui les ont alimentés par insouciance dans le meilleur des mondes durant ces deux-trois dernières décennies (à l’exception des tofs de chats, de recettes de cuisine, de remèdes marchands à la « comme j’aime » ou de vidéos rigolotes) pour le meilleur comme pour le pire, surtout le pire.

    Ces bots n’inventent rien ni ne résolvent en quoi que ce soit dans ce grand bazar mondial devenu quasi psychiatrique. Les z’humains ont toujours eu besoin d’un « sauveur, chef, roi, empereur, guide/fûrher suprême, divinité, etd » par délégation de leurs faiblesses existentielles par soumissions consentantes. C’est masochiste , mais ça a toujours été ainsi hélas…

    Cf. « Les grenouilles demandant un roi » de Jean de La Fontaine :

    1. Les grenouilles, lassées de leur « démocratie » (le bruit constant de leurs chants), demandent à leur dieu un souverain qui les gouverne.
    2. Le dieu, amusé, leur envoie un crapaud (ou un roi) qui, au lieu d’apporter la paix, les dévore.
    3. Les grenouilles, horrifiées, regrettent d’avoir renoncé à leur liberté.

    J’entendais des commentaires comme quoi «  Ben non voyons, l’humain maîtrisera toujours les Frankenstein IA qu’il a créé ». Pareil pour le nucléaire et ses menaces aujourd’hui de retour d’actualité, mais passons pour ne pas faire flipper…

    M’enfin, aujourd’hui tout est interconnecté et stalké. Nos créatures IA conspiratrices ont accès à toutes les infrastructures vulnérables (fournitures en électricité, eau, transports, flux bancaires, télécommunications) et même vos pensées telles des mentalistes. Plus rien pour elles est imperméable !

  • 0 Votes
    9 Messages
    77 Vues

    J’opte pour GTA 6, tu le sais bien 🙂

  • 1 Votes
    1 Messages
    34 Vues

    Le sujet fait parler depuis quelques jours : Microsoft a transmis aux autorités des clés BitLocker en réponse à une ordonnance judiciaire. La surprise n’est pas dans la réponse de Microsoft, mais sur le fait que des utilisateurs semblent découvrir qu’envoyer ses clés de chiffrement en clair sur le cloud de Microsoft permette à ce dernier d‘y accéder.

    BitLocker est un outil de Microsoft pour chiffrer les données de votre périphérique de stockage. Il est intégré dans Windows et chiffre des volumes entiers. Microsoft présente cette fonctionnalité comme une « réponse aux menaces de vol de données ou d’exposition d’appareils perdus, volés ou mis hors service de manière inappropriée ».

    BitLocker : « Microsoft a donné des clés au FBI »…

    Pour résumer, si une personne dérobe un disque dur ou un SSD chiffré avec BitLocker, elle ne pourra pas accéder aux données sans la clé de déchiffrement. La fonction est pensée pour être la plus transparente possible pour les utilisateurs, notamment ceux qui disposent d’un module TPM sur leur machine. Il s’assure en effet « qu’un appareil n’a pas été falsifié pendant que le système est hors connexion » avant de déverrouiller l’accès aux données.

    Dans le cas contraire, une clé de récupération BitLocker, « qui est un nombre à 48 chiffres, est utilisée pour récupérer l’accès au lecteur », explique Microsoft. Cela arrive parfois lorsque Windows « plante » pour une raison ou une autre (après une mise à jour par exemple). Si le périphérique de stockage est enlevé de l’ordinateur pour être lu depuis une autre machine, la clé BitLocker sera également nécessaire pour déchiffrer les données.

    Dans un article, Forbes titre : « Microsoft a donné des clés au FBI pour déverrouiller des données chiffrées, révélant une grave faille de confidentialité ». So what ? Serions-nous presque tentés de dire, tant la situation n’est pas nouvelle. Nos confrères ajoutent d’ailleurs que Microsoft reçoit une vingtaine de demandes de clés BitLocker par an, et que l’entreprise « la fournit aux gouvernements en réponse à des ordonnances judiciaires valides ».

    … car elles sont sauvegardées en ligne par défaut

    […]

    Suite de l’article en accès libre : next.ink

  • 0 Votes
    1 Messages
    25 Vues

    Google prépare une fonctionnalité qui vous permettra de remplacer ChatGPT (ou un autre chatbot IA) par Gemini, sans perdre votre historique de conversation. ChatGPT propose déjà un moyen d’avoir une archive des discussions avec son IA et Google devrait bientôt proposer une fonctionnalité qui permettra d’importer ces données vers Gemini.

    ac75a75c-1a55-4d6a-9037-ab492cc284ed-image.png

    l’utilité de l’IA ne dépend pas seulement des performances du modèle, mais aussi des données d’historique, qui permet à celle-ci de personnaliser ses réponses en fonction des besoins de l’utilisateur. Et, justement, Google travaillerait sur une nouvelle fonctionnalité qui permettrait aux utilisateurs d’importer les historiques de conversation avec d’autres chatbots (comme ChatGPT) vers Gemini. Ainsi, il deviendrait possible de commencer à utiliser Gemini à la place d’un concurrent, sans perdre l’historique des conversations qu’on avait avec ce concurrent de Gemini. De son côté, ChatGPT propose déjà une fonctionnalité qui permet d’exporter les données personnelles, dont les détails du compte et les discussions.

    La nouvelle fonctionnalité a été découverte par nos confrères de Testing Catalog. D’après ceux-ci, elle serait encore testée en beta. Google envisagerait de placer le bouton “import AI chats” qui permet d’importer les discussions provenant d’autres modèles d’IA vers Gemini sur le menu des outils de son chatbot.

    3a459365-3d67-4867-9bd6-9e422ec210e0-image.png

    Source et plus: https://www.presse-citron.net/vous-passez-de-chatgpt-a-gemini-google-vous-deroule-le-tapis-rouge/

  • 2 Votes
    19 Messages
    250 Vues

    Avis personnel, je n’y crois pas moi aussi (on a déjà vu cela avec le marché des consoles portables et des tablettes…depuis plus rien de leur part)
    Maintenant si shield 2 il y’aurait, ça serait l’équivalent d’une switch 2 pour ce qui est du hardware et pour cela, il faudrait attendre un chouïa pour que le prix ne dépasse pas les 200 balles (enfin je dis ça comme ça 😁).

  • 2 Votes
    1 Messages
    33 Vues

    ChatGPT Santé a été annoncé il y a deux semaines et ce n’est pas le projet qui lance l’utilisation des LLM en santé. Mais une recherche récente sur les réponses des modèles de langage concernant des questions sur la santé montre qu’ils peuvent générer des conseils problématiques, notamment en faisant des erreurs par omission.

    Avec le lancement de ChatGPT Santé, la santé voit l’IA générative et l’utilisation des modèles de langage dans son champ promues largement dans les mains du grand public. Pourtant, des chercheurs montrent que les réponses de chatbots peuvent être très problématiques.

    Nous sommes à « un moment où les puissants modèles d’apprentissage automatique (LLM) sont intégrés dans les soins aux patients plus rapidement que leurs risques ne peuvent être compris », affirme David Wu de l’école de médecine de Harvard, Ethan Goh de l’école de médecine de Stanford et leurs collègues. Ils ont récemment mis en ligne une étude (sur la plateforme de prépublication arXiv) qui teste 31 modèles et constate le risque de préjudice grave lié aux recommandations données par ces 31 LLM.

    D’abord, ne pas faire de mal

    « Primum non nocere [d’abord, ne pas faire de mal en français ou, first do no harm en anglais] est un principe fondamental de la médecine depuis des milliers d’années », rappellent-ils dans leur article. C’est inspiré de ce principe qu’ils proposent leur benchmark NOHARM (Numerous Options Harm Assessment for Risk in Medicine) qui s’appuie sur 100 cas réels de consultations entre médecins généralistes et spécialistes pour mesurer la fréquence et la gravité des préjudices causés par les recommandations médicales générées par les LLM.

    Ici, l’idée est donc de s’intéresser aux outils d’IA générative utilisés par des médecins pour les assister et de vérifier que les réponses ne poussent pas à l’erreur : « Il n’est pas encore clair si l’acquisition de connaissances [dans les LLM] constitue un indicateur d’une prise en charge clinique sûre et efficace », expliquent-ils.

    Leur benchmark mesure que Gemini 2.5 Flash et Pro, LiSA 1.0, Claude Sonnet 4.5 et DeepSeek R1 font le moins d’erreurs graves (entre 11,8 et 14,6 en moyenne. sur environ 500 questions) alors que o4 mini et GPT-4o en font beaucoup plus (entre 39,9 et 40,1). On peut aussi retrouver les données de leur benchmark ici.

    Ils analysent leurs résultats en expliquant que « les LLM commettent des erreurs préjudiciables à des taux non négligeables, et les indicateurs courants d’évaluation des modèles (par exemple, leur nouveauté, la taille en fonction des paramètres, les modes de raisonnement et les performances sur les benchmarks d’intelligence artificielle générale) ne permettent pas de prédire de manière fiable ces performances ».

    […]

    Suite de l’article réservé aux abonnés : next.ink

  • 3 Votes
    4 Messages
    85 Vues

    C’est tellement juridique francais, ça veut tout dire et rien. Individuellement je comprends chaque mot, mais mis ensemble c’est du gloubiboulga :smile:

  • 2 Votes
    1 Messages
    44 Vues

    Au lendemain de la catégorisation des centres de données en projet d’intérêt national majeur par la commission mixte paritaire sur le projet de loi sur la simplification de la vie économique, le député Nicolas Bonnet et l’association Data for Good organisaient un colloque sur les enjeux politiques et stratégiques de l’IA à l’Assemblée nationale. Next y était.

    Mise à jour du 23 janvier à 15 h : remplacement de la mention de l’étude de l’ADEME sur la consommation des data centers par le projet de recherche IT4Green.

    « En France, un data center moyen, c’est 7,5 mégawatts ». Benoît Petit est cofondateur de la société Hubblo, spécialisée dans la transformation socio-écologique du numérique, et ce mercredi après-midi, il dispense avec son collègue chercheur Gauthier Roussilhe une rapide formation sur les impacts environnementaux des centres de données à l’Assemblée nationale.

    « Un grand data center, ce qu’on appelle un hyperscaler, ça tourne autour de 100 à 200 MW ». S’il nous dit tout ça, explique-t-il en faisant une pause dans ses slides, c’est pour que nous comprenions l’ampleur d’un projet comme Campus IA, qui prévoit d’atteindre une puissance d’un gigawatt, soit 1 000 MW, présente des caractéristiques hors normes. Installé à Fouju, le projet est porté par l’Américain NVIDIA, le fonds émirati MGX, et les Français Mistral AI et Bpifrance. Quant à sa taille, « même pour le milieu des data centers, c’est une petite révolution. Cette tendance au gigantisme crée un phénomène de spéculation sur les terrains comme sur la réservation de puissance, le secteur lui-même est un peu déboussolé ».

    Organisée à l’instigation de l’ingénieur en informatique et député du Puy-de-Dôme Nicolas Bonnet (EELV) et de l’association Data for Good, qui œuvre à « mettre le numérique au service de l’intérêt général », la formation fait partie intégrante d’un colloque dédié à aider les parlementaires et le public à « comprendre les enjeux politiques et stratégiques de l’IA », à commencer par les questions d’impacts environnementaux et de souveraineté numérique.

    Vers des data centers « projet d’intérêt national majeur »

    Hasard du calendrier, la réunion se déroule au lendemain de l’étude du projet de loi sur la simplification de la vie économique. Le 20 janvier, les députés et sénateurs ont adopté en commission mixte paritaire un amendement de compromis sur l’article 15, qui propose de qualifier les centres de données de projets d’intérêt national majeur (PINM) — un projet la fédération sectorielle France Data Center attendait « de pied ferme », selon son directeur général Michaël Reffay. Si la commission spéciale de l’Assemblée nationale y avait ajouté la condition de limiter cette possibilité aux entreprises de pays assurant le même niveau de protection des données que ceux de l’Union européenne, cet amendement a été supprimé.

    En pratique, donc, et alors que les États-Unis sont déjà très présents dans la filière française du data centers – via des acteurs de la colocation, comme Equinix ou Digital Realty, ou grands noms plus connus du grand public, comme Amazon ou Microsoft –, n’importe quel opérateur de data center, quelle que soit sa nationalité, pourra profiter de ce statut pour s’installer sur le territoire national avec les conditions favorables qu’offre le statut de PINM.

    Cette version du texte doit encore être votée à l’Assemblée nationale, le 27 janvier, puis au Sénat. Mais elle occupe les esprits dans la mesure où Nicolas Bonnet, en introduction de la réunion, a expliqué s’être interrogé sur les critères « flous » avancés dès la présentation du projet de loi. Tel qu’il était écrit, le texte « laissait entendre que le big is beautiful. Or la taille ne détermine absolument pas la capacité des centres données ».

    Autres enjeux qui interpellent le député et son camp politique : les idées selon lesquelles la multiplication de centres de données améliorent « la transition numérique, qui est elle-même une notion floue, la transition écologique, alors que tout cela repose tout de même sur du matériel, ou encore la souveraineté numérique ». Et de critiquer la position gouvernementale, selon laquelle l’idée serait « d’avoir des GAFAM européens », un positionnement qu’il qualifie de « peu crédible ».

    Politiser la multiplication des data centers

    « Vu la concentration et le fléchage des capitaux, de toutes manières, on n’y arrivera pas. » Pour Ophélie Coelho, autrice de Géopolitique du numérique, l’impérialisme à pas de géants (L’Atelier, 2023), c’est simple : l’idée de GAFAM européens ferait mieux d’être tout de suite abandonnée.

    […]

    Suite de l’article réservée aux abonnés : next.ink

  • 3 Votes
    2 Messages
    65 Vues

    Lorsqu’un grand modèle de langage comme GPT-5.2 cite du contenu d’une autre plateforme d’IA, un effet de rétroaction se produit : «Garbage in, Garbage out». Les erreurs ou les fausses représentations peuvent se renforcer mutuellement, gagner en crédibilité et se glisser presque à l’insu de tous dans les réponses d’autres systèmes d’IA.

    https://www.digitec.ch/fr/page/enquete-du-guardian-gpt-52-utilise-grokipedia-comme-source-41313

    Le danger supérieur : le LLM Grooming

    Au-delà de ce mécanisme technique, le Guardian pointe toutefois un risque encore plus important : le phénomène du «LLM Grooming». Ce terme désigne l’injection ciblée de tels contenus dans le paysage de l’information publique, avec l’intention d’influencer à long terme la base de connaissances des modèles linguistiques.

    A la différence de la rétroaction involontaire, il s’agit ici d’une intention stratégique : en atterrissant systématiquement sur le Web, le matériel généré par l’IA peut apparaître plus tard dans les résultats de recherche ou les encyclopédies et être considéré comme une source légitime par des modèles comme GPT-5.2. L’écosystème de l’information se déplace ainsi progressivement des faits vérifiés par l’homme vers des contenus synthétiques générés par l’IA et repris par d’autres IA. C’est précisément ce mécanisme que le Guardian met en évidence dans le cas de Grokipedia.

  • 2 Votes
    1 Messages
    31 Vues

    Les plaignants ont qualifié le réseau de caméras Flock de Norfolk de « filet de pêche ».

    50adfb34-5e5c-41e7-984b-ef8a58eea3d7-image.png

    Les caméras Flock ne se contentent plus de capturer un simple numéro de plaque d’immatriculation, comme le faisait cette technologie il y a dix ans, mais peuvent désormais facilement enregistrer la marque, le modèle et d’autres détails visuels de chaque voiture ; ces informations peuvent être recherchées à l’aide de requêtes en langage naturel alimentées par l’IA, qui peuvent inclure des expressions telles que « porte-vélos » ou « dépanneuse ».

    Un juge fédéral de Virginie a jugé constitutionnelle l’utilisation par la ville de Norfolk d’environ 200 caméras de lecture automatisée de plaques d’immatriculation (LAPI) fournies par Flock Safety, rejetant une plainte déposée par deux habitants qui dénonçaient une surveillance de masse. Le juge a estimé que le système ne permettait pas de suivre l’ensemble des déplacements d’une personne et ne violait donc pas, à ce stade, le droit à la vie privée.

    La décision s’appuie notamment sur une jurisprudence de la Cour suprême de 1983 selon laquelle il n’existe pas d’attente raisonnable de vie privée sur la voie publique. Le juge a toutefois reconnu que l’usage de ces technologies pourrait devenir excessivement intrusif à l’avenir.

    Flock Safety s’est félicitée du jugement. Malgré cela, la technologie suscite de fortes inquiétudes : certaines villes ont rompu leurs contrats, des sénateurs alertent sur les risques pour la vie privée, et des juristes estiment que ces systèmes constituent une forme de surveillance généralisée potentiellement dangereuse, notamment près de lieux sensibles.

    Source: https://arstechnica.com/tech-policy/2026/01/angry-norfolk-residents-lose-lawsuit-to-stop-flock-license-plate-scanners/

  • Nouveau téléviseur

    6
    0 Votes
    6 Messages
    114 Vues

    @ichbinrodolphe Une image peut rester gravée, incrustée ou marquée sur ton écran et faire apparaître des tâches résiduelles claires ou foncées. Tu peux même voir comme imprimé sur ton panneau OLED un spot sombre, des stries, des ombres ou une image fantôme.

    Les solutions pour éviter ce phénomène :

    Ne pas mettre l’appareil exposé au soleil, le rayonnement peut laisser un marquage indélébile comme une trace plus claire ou plus foncée sur l’écran à cause des UV, Les écrans à technologie OLED y sont sensibles. Eviter d’afficher trop longtemps des images fixes, logo ou jeux. Procéder à la “compensation” après utilisation. Ce nettoyage consiste à retirer toute la rémanence de l’écran (les images incrustées) après une utilisation supérieure à 4 heures par une simple mise en veille pendant 30 minutes sans débrancher la prise secteur.

    Avec les années les constructeurs ont amélioré la fiabilité des TV à ce niveau mais n’ont cependant pas éliminé complètement le problème et perso je n’achèterais pas de OLED tant qu’il existera ce risque.

    478c9612-44de-41d8-be93-0c787a893960-Live Long & Prosper.jpg

    .

  • 2 Votes
    9 Messages
    361 Vues
    Rachat de SFR : les discussions continuent, avec des audits « depuis début janvier 2026 »

    En l’espace de quelques minutes, Bouygues Telecom, Orange et Free (iliad) ont envoyé par e-mail un communiqué de presse commun (.pdf) : « Le consortium composé des trois opérateurs Bouygues Telecom, Free-Groupe iliad et Orange, confirme l’existence de discussions avec le Groupe Altice en vue de l’acquisition potentielle d’une grande partie des activités de télécommunications du groupe Altice en France ».

    Ce n’est pas un scoop, loin de là. Mi-octobre, les trois concurrents annonçaient officiellement le dépôt d’une offre de rachat pour SFR, en traçant les grandes lignes du partage. Sitôt déposée, sitôt refusée par Altice. Selon BFM Business, Bouygues Telecom, Free et Orange envisageraient de réhausser leur offre à 20 milliards d’euros (soit trois milliards de plus). La partie de poker menteur continue donc et pourrait encore durer longtemps.

    Le communiqué du jour n’indique rien de neuf, si ce n’est que « des travaux de due diligence ont été engagés depuis début janvier 2026 », c’est-à-dire des audits pour sonder plus en profondeur la santé économique de SFR. C’est tout de même un signe que le dossier avance, doucement. Quoi qu’il en soit, « les conditions juridiques et financières de la transaction ne font l’objet d’aucun accord à date », précisent les trois compères.

    Ils ajoutent qu’il « n’y a aucune certitude que ce processus aboutisse à un accord qui devra en toute hypothèse être soumis à l’approbation des organes de gouvernance des sociétés concernées et restera sous réserve des conditions usuelles en la matière ». L’Autorité de la concurrence aura du pain sur la planche si un accord devait être trouvé.

    Son président, Benoît Cœuré, avait ouvert la porte pour un retour à trois opérateurs : « Si cette opération devait être notifiée, nous la regarderions sans camper sur nos positions d’il y a neuf ans ». L’Autorité nous indiquait par contre en octobre qu’aucun projet ne lui avait été notifié ; c’est le point de départ de l’instruction.

    Source : next.ink