Actualités High-Tech

1.8k Sujets 9.1k Messages
  • 3 Votes
    5 Messages
    99 Vues

    @Mister158 a dit dans ReFS : le successeur de NTFS sous Windows 11, capable de gérer jusqu'à 35 pétaoctets :

    Put1 ça en fait des mHD !!!

    Ha Ha a ha … Tou m’a tué !

    👍

  • 1 Votes
    1 Messages
    38 Vues

    Vous le savez, les méchantes IA nous voleront surement bientôt nos jobs parce que la médiocrité nous habite collectivement. Et on ne pourra rien faire contre ça mais la bonne nouvelle, c’est qu’elles commencent déjà à nous sauver la vie sur la route.

    Je sais, je sais, vous n’êtes pas encore assez solide mentalement pour confier le volant à une intelligence artificielle mais croyez-moi, ça se fait plutôt bien ! Et pour une fois, on a des chiffres pour le prouver puisque Waymo, la filiale de conduite autonome de Google, vient de révéler des stats qui font passer les humains pour des chauffards en puissance (ce que nous sommes, surtout les mecs).

    En effet, une étude récente impliquant Swiss Re, l’un des plus grands réassureurs mondiaux, vient de révéler un fait qui je l’espère, va changer votre perception des voitures autonomes : sur 25,3 millions de miles parcourus (environ 40 millions de kilomètres), les voitures Waymo n’ont généré que 9 réclamations pour dommages matériels et 2 pour blessures corporelles. Pour mettre cela en perspective, les conducteurs humains auraient provoqué respectivement 78 et 26 réclamations sur la même distance.

    Pour être encore plus clair, les voitures Waymo sont 88% moins susceptibles de provoquer un accident avec dommages matériels et 92% moins susceptibles de causer un accident avec blessures corporelles que la moyenne des conducteurs humains. Et le plus beau, c’est qu’elles surpassent même les conducteurs de voitures récentes équipées des systèmes d’aide à la conduite dernier cri (ADAS), qui sont déjà statistiquement plus sûrs que la moyenne.

    Entre juillet 2024 et février 2025, Waymo a ainsi rapporté 38 accidents suffisamment graves pour déclencher un airbag ou causer une blessure. Sur ces 38 accidents, un seul était clairement la faute de Waymo. 3 autres étaient potentiellement attribuables au système, mais sans certitude.

    Et les 34 autres ? Entièrement la faute des conducteurs humains !

    Et ça, c’est peut-être le point le plus révélateur car la plupart des accidents impliquant une Waymo se produisent parce que le véhicule autonome respecte scrupuleusement les règles, tandis qu’un conducteur humain les enfreint. À ce stade, on devrait donc sérieusement considérer la possibilité que confier sa vie à un robot est statistiquement plus sûr que de monter dans la voiture de votre beau-père qui “connaît un raccourci” ou d’un Blablacar de random en 106 qui vient d’avoir son permis.
    Pour rappel, Waymo détecte son environnement grâce à une combinaison de capteurs lidar, radar, et caméras haute définition qui scrutent dans toutes les directions en permanence. Du coup, contrairement à votre cerveau de primate qui s’est développé pour chasser des mammouths et pas du tout pour gérer un véhicule de 1,5 tonne lancé à 130 km/h, les algorithmes de Waymo ont eux été spécifiquement conçus pour cette tâche.

    Les avantages sont nombreux :

    Pas de fatigue, de distraction, de SMS pendant la conduite Pas d’alcool, de drogues ou de médicaments dans le système Temps de réaction en millisecondes plutôt qu’en secondes Respect obsessionnel des limitations de vitesse et des distances de sécurité Vision à 360° sans angles morts

    Comme le note Timothy B. Lee, un journaliste spécialisé :

    La plupart des accidents de Waymo impliquent un véhicule Waymo qui respecte scrupuleusement les règles tandis qu’un conducteur humain les enfreint : excès de vitesse, griller un feu rouge, sortir de sa voie, etc.

    D’ailleurs, le meilleur exemple de la supériorité des systèmes autonomes est peut-être leur comportement lors d’accidents inévitables. Le premier accident mortel impliquant une Waymo s’est produit le 19 janvier à San Francisco. Une Waymo était arrêtée à un feu rouge, une autre voiture derrière elle. Un SUV conduit par un humain a percuté ces véhicules à grande vitesse, provoquant un carambolage impliquant six véhicules. Une personne est décédée et cinq autres ont été blessées.

    Un autre accident majeur a eu lieu en octobre 2023, également à San Francisco. Une fois encore, une Waymo était arrêtée à un feu rouge. Un véhicule circulant en sens inverse a franchi la ligne médiane et a percuté un SUV arrêté à côté de la Waymo. L’impact a projeté le SUV contre la Waymo. Une personne a été gravement blessée.

    Dans les deux cas, le véhicule Waymo avait pris la position la plus sûre possible et respectait parfaitement les règles. L’accident était entièrement dû au comportement imprudent ou illégal d’un conducteur humain.

    Waymo va encore plus loin avec des fonctionnalités comme “Safe Exit”, conçue pour éviter les accidents lorsque les passagers quittent le véhicule. Selon la San Francisco Municipal Transportation Agency, les collisions avec des cyclistes lors de l’ouverture d’une portière sont la deuxième cause la plus fréquente d’accidents corporels graves ou mortels.

    Et contrairement aux VTC avec chauffeur humain qui peuvent simplement rappeler aux passagers de faire attention, Waymo utilise son système de capteurs pour détecter activement les cyclistes ou autres usagers qui approchent, et avertit les passagers par des alertes audio et visuelles explicites. Le véhicule affiche même des icônes sur son lidar pour signaler aux autres usagers qu’une montée ou descente de passagers est en cours.
    Ces données ont des implications majeures pour notre avenir. D’abord, pour les assurances automobiles car si les véhicules autonomes sont prouvés statistiquement plus sûrs, les primes d’assurance pour les conducteurs humains pourraient augmenter, tandis que celles des flottes autonomes diminueraient. C’est d’ailleurs pourquoi des réassureurs comme Swiss Re s’intéressent de près à ces données.

    On peut aussi se mettre à rêver de villes où la plupart des accidents sont évités, où les embouteillages diminuent grâce à une circulation plus fluide et prévisible, et où le stationnement devient un problème du passé grâce à des véhicules qui se garent eux-mêmes ou continuent simplement à circuler pour transporter d’autres utilisateurs.

    Et surtout, pour la sécurité routière mondiale, avec 1,35 million de décès sur les routes chaque année, le potentiel de vies sauvées est colossal. La conduite autonome pourrait rendre les routes aussi sûres que le transport aérien, où je le rappelle, les accidents mortels sont devenus extrêmement rares grâce à l’automatisation.

    Malgré ces résultats impressionnants, y’a quand même encore plusieurs obstacles avant une adoption généralisée :

    L’acceptation du public : le fossé est énorme entre la perception des risques et la réalité statistique Les conditions difficiles : neige abondante, brouillard épais ou zones rurales sans cartographie précise restent problématiques Le cadre réglementaire : en France et en Europe, la législation avance à la vitesse d’un escargot asthmatique La cohabitation avec les conducteurs humains : ironiquement, le plus grand danger pour les voitures autonomes, ce sont… les conducteurs humains

    Ce dernier point est crucial et explique en partie pourquoi la conduite autonome est si difficile à perfectionner. Les IA doivent non seulement respecter les règles, mais aussi anticiper l’irrationnel car comme le montre l’analyse des vidéos d’accidents, les Waymo tentent souvent d’éviter des collisions provoquées par des conducteurs qui agissent de façon imprévisible ou illégale.

    Voilà, les données sont là et elles sont désormais incontestables ! Les véhicules autonomes de Waymo sont vachement plus sûrs que les conducteurs humains, même les plus expérimentés et avec les véhicules les plus récents.
    Cela annonce un changement radical dans les années à venir, si un jour la France se décide enfin à appliquer l’amendement 157 de l’ONU qui rentre déjà dans sa 2ème année. Cet amendement élargit un peu plus les conditions rendant possible la conduite autonome, mais bon, entre les comités d’étude, les rapports préliminaires et la traditionnelle “exception culturelle française” face à l’innovation, nos voitures auront probablement le temps de développer leur propre conscience avant que l’administration ne donne son feu vert.

    – Sources :

    https://www.understandingai.org/p/human-drivers-keep-crashing-into

    https://korben.info/waymo-ia-conduite-autonome-securite-humains.html

  • 1 Votes
    5 Messages
    103 Vues

    @duJambon Plus simple de lire ici 😁

  • 1 Votes
    1 Messages
    49 Vues

    Au lieu de fournir des listes de liens, Google répond désormais aussi directement et de manière formulée aux questions de recherche. Cette fonctionnalité de l’IA arrive désormais en Suisse.

    Celles et ceux qui tapent une question dans Google pourraient avoir une surprise dans les prochains jours: au lieu d’une liste de liens, une réponse détaillée et rédigée pourrait désormais s’afficher, générée par une intelligence artificielle (IA) à partir de sources issues d’Internet. Ce nouveau format de réponses est désormais disponible en Suisse.

    Dans les jours à venir, les utilisatrices et utilisateurs suisses connectés à leur compte Google — ainsi que ceux de huit autres pays européens — découvriront progressivement cette nouveauté, comme l’a annoncé Google. La fonctionnalité «AI Overview» est disponible en français, allemand, italien et anglais, mais uniquement pour les utilisateurs et utilisatrices connectés âgés de plus de 18 ans.

    Problème de véracité

    Ces résumés n’apparaissent pas pour toutes les recherches. Ils ne s’affichent que lorsqu’ils sont jugés utiles, comme l’a expliqué une responsable de la recherche chez Google. Une simple question sur la météo ne génère pas de réponse IA. En revanche, une requête visant à résoudre un problème informatique ou de la vie quotidienne peut donner lieu à une instruction en plusieurs étapes. Google explique par exemple quelles fleurs sont actuellement adaptées à la plantation au jardin.

    Mais l’IA de Google se risque aussi à aborder des sujets plus délicats. Elle répond aussi bien aux perspectives de l’action Tesla qu’à l’évolution du marché immobilier en Suisse. Google n’est pas tout à fait à l’abri du fait que la technologie de l’IA déforme ou invente parfois des faits.

    Le moteur de recherche évacue ce problème par un avertissement. En outre, les mêmes mécanismes de protection stricts que pour les recherches traditionnelles s’appliquent – en particulier pour les questions relatives à la santé ou aux finances.

    Un coup dur pour les contenus payants

    Outre le risque d’erreur de l’IA, le traitement des sources est controversé. Certes, Google indique dans ses résumés d’où proviennent les informations (d’autres fournisseurs étaient et sont toujours plus réservés à ce sujet). Toutefois, deux clics sont nécessaires pour accéder à la source originale. En outre, les informations qui ne sont accessibles sur les pages originales qu’avec un abonnement payant sont également résumées.

    Les portails de conseils et les journaux voient d’un mauvais œil l’arrivée de ces résumés IA, déjà disponibles depuis un certain temps aux Etats-Unis: ils craignent une baisse de leur audience. Jusqu’ici, les moteurs de recherche leur amenaient un trafic important. Cela pourrait bientôt changer.

    Google refuse d’indiquer combien d’utilisateurs cliquent sur une page externe depuis un résumé IA. Mais selon l’entreprise, ceux qui cliquent sur une source restent plus longtemps sur le site, car ils sont véritablement intéressés par le contenu.

    Avec ces résumés IA, Google suit une tendance: depuis l’apparition de ChatGPT, les interactions conversationnelles avec des machines séduisent de plus en plus de monde. Une nouvelle forme de concurrence pour le géant de la recherche est ainsi née. ChatGPT lui-même, ou des moteurs de réponse par IA comme Perplexity, proposent déjà des synthèses issues de sources en ligne. Et cela fonctionne. Selon Google, les utilisateurs de ces résumés sont plus satisfaits des résultats obtenus et effectuent plus de recherches.

    Ils posent aussi des questions plus complexes. Celles et ceux qui rencontrent ces résumés IA se surprendront peut-être à ne plus quitter la page de Google. Les créateurs des contenus d’origine, eux, risquent de ressentir leur absence.

    Les personnes qui découvrent les aperçus de l’IA se surprendront peut-être de plus en plus à ne plus quitter la page Google. Ces personnes manqueront aux créateurs des informations originales.

    Source: https://www.watson.ch/fr/suisse/google/619805212-google-lance-ai-overview-en-suisse-et-ca-inquiete-le-pays

  • 1 Votes
    1 Messages
    65 Vues

    Face à la domination des solutions Microsoft dans les établissements d’enseignement supérieur, Proton affirme être prêt à fournir une alternative souveraine pour l’École Polytechnique.

    L’entreprise suisse spécialisée dans la sécurité et la confidentialité en ligne propose ses services comme une alternative respectueuse des données personnelles et conforme aux exigences européennes en matière de souveraineté numérique. Ce positionnement intervient alors que de plus en plus d’institutions s’interrogent sur leur dépendance aux géants technologiques américains.

    – Plus d’informations :

    https://www.clubic.com/actualite-558639-face-a-microsoft-proton-se-dit-prete-a-assumer-la-souverainete-europeenne-de-l-ecole-polytechnique.html

  • Crash test de batterie, lâcher du 6ème étage

    1
    0 Votes
    1 Messages
    38 Vues

    Protéger une pastèque comme une batterie électrique, l’improbable crash-test de Xiaomi

    À l’occasion du lancement d’une berline électrique, le PDG de Xiaomi a souhaité lui-même illustrer la pertinence de son système de protection des batteries… En encapsulant une pastèque puis en la lançant du haut d’un immeuble.

    0b7401d7-3040-4a5d-a08d-3a41d0ba5fe8-image.png
    Encapsulée comme une batterie électrique, cette pastèque a été soumise au crash-test du PDG de Xiaom

    Réagir

    Protéger une pastèque comme une batterie électrique, l’improbable crash-test de Xiaomi
    © CGTN
    Encapsulée comme une batterie électrique, cette pastèque a été soumise au crash-test du PDG de Xiaomi.

    Pour lancer un nouveau produit, rien ne vaut de convaincre par la preuve. À l’occasion de la commercialisation de la SU7 Ultra, une berline électrique qui peut passer de 0 à 100 km/h en 1,97 seconde, Xiaomi a souhaité démontrer la solidité des protections mises en place autour de ses batteries. L’entreprise chinoise voulait par la même occasion déjouer d’éventuelles interrogations quant aux conséquences en cas de choc extrême.

    Afin d’illustrer son propos, le géant chinois de la tech a fait appel à son PDG, Lei Jun. Dans une vidéo relayée par le média officiel CGTN, le chef d’entreprise, juché au sixième étage d’une de ses usines, jette dans le vide… Une pastèque. Un fruit a priori particulièrement fragile, mais qui bénéficie, lors de l’opération organisée par Xiaomi, d’une protection particulière, identique à celle qui entoure la batterie de la SU7 Ultra. Une fois tombé au sol, le fruit est resté intact.

    Source: https://www.usinenouvelle.com/article/proteger-une-pasteque-comme-une-batterie-electrique-l-improbable-crash-test-de-xiaomi.N2229345

    Leur revêtement miracle pourrait surement avoir bien d’autres applications, reste à savoir s’il ne transforme pas les batterie en bombe en cas de court-circuit ou de charge trop rapide.

  • 0 Votes
    1 Messages
    34 Vues

    Après le “ne pas suivre”, voici venir le “Mes conditions”.

    L’auteur, journaliste et défenseur de longue date de la liberté d’Internet, Doc Searls, veut que nous arrêtions de demander la confidentialité des sites Web, des services et de l’IA et que nous commencions à leur dire ce que nous accepterons et n’accepterons pas.

    Le projet de norme IEEE P7012 , surnommé « MyTerms » par Searls (similaire à « Wi-Fi »), est un projet de norme pour les conditions d’utilisation de la vie privée lisibles par machine. Searls écrit sur son blog que MyTerms est en préparation depuis 2017 et qu’une version entièrement lisible devrait être prête plus tard cette année, suite aux présentations lors des conférences VRM Day et Internet Identity Workshop (IIW).

    Le principe fondamental est que vous êtes la première partie de chaque contrat conclu avec des services en ligne. Les sites web, applications ou services que vous consultez constituent la seconde partie. Vous arrivez avec un contrat prédéfini que vous préférez sur votre appareil ou vous en choisissez un à votre arrivée, qui indique au site les informations que vous êtes autorisé à fournir pour accéder au contenu ou aux services. Un site peut vraisemblablement utiliser ce contrat, le modifier pour en respecter les conditions, ou vous en informer.

    La façon la plus simple de définir vos standards serait, dans un premier temps, de choisir un élément de Customer Commons , qui s’inspire du concept de copyleft de Creative Commons . Pour l’instant, un seul exemple est proposé : #NoStalking , qui autorise les publicités, mais pas les données utilisables pour « la publicité ciblée ou le suivi au-delà du service principal pour lequel vous les avez fournies ». Le blocage des publicités n’est pas abordé dans l’article de Searls ni dans le résumé de l’IEEE, mais il existerait probablement en dehors de MyTerms, même si MyTerms semble vouloir réduire le besoin de blocage des publicités.

    Searls et son équipe définissent les normes et laissent les navigateurs, les créateurs d’extensions, les gestionnaires de sites web, les plateformes mobiles et autres acteurs technologiques concevoir les outils. Tant que l’humain est la première partie d’un contrat, le numérique la seconde, qu’une « association à but non lucratif désintéressée » fournit la liste des accords et que les deux parties conservent une trace de leurs accords, la fonction peut prendre la forme qu’Internet décide.

    Conditions proposées, pas demandes soumises

    La norme de Searls et de son groupe plaide en faveur d’une alternative sensée à la réalité moderne de l’accès à l’information sur le web. Elle nous invite à cesser de prétendre que nous lisons tous des accords truffés de termes opaques, que nous acceptons chaque jour des milliers de mots et que nous divulguons volontairement des informations nous concernant. Et, bien sûr, elle suscite la question de savoir si elle est vouée à devenir une nouvelle version de la politique « Do Not Track » .

    La fonction « Ne pas me suivre » était une requête, tandis que MyTerms est intrinsèquement une exigence. Les sites web et services pourraient, bien sûr, refuser purement et simplement d’afficher ou de fournir du contenu et des données en présence d’un agent MyTerms, ou exiger que les utilisateurs définissent les conditions les moins restrictives.

    Il n’y a rien de fondamentalement répréhensible à mettre en place un système de confidentialité axé sur l’utilisateur et à inciter les sites et logiciels à agir correctement et à le respecter. Les utilisateurs pourraient choisir de s’en tenir aux moteurs de recherche et aux sites qui acceptent MyTerms. L’avenir nous dira si MyTerms parviendra à obtenir l’influence souhaitée par Searls.

    Source de la propagation du délire: https://arstechnica.com/gadgets/2025/03/doc-searls-myterms-aims-to-offer-user-first-privacy-contracts-for-the-web/

    Innocents dans le sens sans malice, enfantin, etc…

  • 1 Votes
    1 Messages
    45 Vues

    Cloudflare retourne l’IA contre elle-même avec un labyrinthe sans fin de faits non pertinents

    Mercredi, le fournisseur d’infrastructure web Cloudflare a annoncé une nouvelle fonctionnalité appelée « AI Labyrinth » visant à lutter contre le scraping non autorisé de données d’IA en fournissant du faux contenu généré par l’IA à des robots. Cet outil vise à contrecarrer les entreprises d’IA qui explorent des sites web sans autorisation afin de collecter des données d’entraînement pour les grands modèles de langage qui alimentent les assistants IA comme ChatGPT .

    Cloudflare, fondée en 2009, est probablement mieux connue comme une entreprise qui fournit des services d’infrastructure et de sécurité pour les sites Web, en particulier une protection contre les attaques par déni de service distribué (DDoS) et d’autres trafics malveillants.

    Au lieu de simplement bloquer les robots, le nouveau système de Cloudflare les attire dans un labyrinthe de pages réalistes, mais non pertinentes, gaspillant ainsi les ressources informatiques du robot. Cette approche constitue une avancée notable par rapport à la stratégie standard de blocage et de défense utilisée par la plupart des services de protection de sites web. Cloudflare explique que le blocage des robots peut parfois se retourner contre eux, car il alerte les opérateurs du robot de leur détection.

    « Lorsque nous détectons une exploration non autorisée, plutôt que de bloquer la requête, nous redirigeons vers une série de pages générées par l’IA, suffisamment convaincantes pour inciter un robot à les parcourir », explique Cloudflare. « Cependant, bien que ce contenu semble réel, il ne correspond pas au contenu du site que nous protégeons, ce qui fait perdre du temps et des ressources au robot. »

    L’entreprise affirme que le contenu proposé aux robots est délibérément sans rapport avec le site web exploré, mais qu’il est soigneusement sourcé ou généré à partir de faits scientifiques réels – tels que des informations neutres sur la biologie, la physique ou les mathématiques – afin d’éviter la diffusion de fausses informations (l’efficacité de cette approche pour prévenir la désinformation reste toutefois à prouver). Cloudflare crée ce contenu grâce à son service d’IA Workers , une plateforme commerciale qui exécute des tâches d’IA.

    Cloudflare a conçu les pages de piège et les liens pour qu’ils restent invisibles et inaccessibles aux visiteurs réguliers, afin que les personnes naviguant sur le Web ne les rencontrent pas par accident.

    Un pot de miel plus intelligent

    AI Labyrinth fonctionne comme ce que Cloudflare appelle un « pot de miel nouvelle génération ». Les pots de miel traditionnels sont des liens invisibles que les visiteurs humains ne peuvent pas voir, mais que les robots analysant le code HTML peuvent suivre. Mais Cloudflare affirme que les robots modernes sont devenus experts dans la détection de ces pièges simples, nécessitant des techniques de tromperie plus sophistiquées. Les faux liens contiennent des méta-directives appropriées pour empêcher l’indexation par les moteurs de recherche tout en restant attractifs pour les robots de récupération de données.

    « Aucun humain ne s’aventurerait à parcourir quatre liens de profondeur dans un labyrinthe d’absurdités générées par l’IA », explique Cloudflare. « Tout visiteur qui le ferait serait très probablement un robot. Cela nous donne donc un tout nouvel outil pour identifier et identifier les robots malveillants. »

    Cette identification alimente une boucle de rétroaction d’apprentissage automatique : les données collectées par AI Labyrinth sont utilisées pour améliorer en continu la détection des bots sur le réseau Cloudflare, améliorant ainsi la protection des clients au fil du temps. Les clients de n’importe quelle offre Cloudflare, même gratuite, peuvent activer cette fonctionnalité d’un simple clic dans les paramètres de leur tableau de bord.

    Un problème croissant

    Le Labyrinthe d’IA de Cloudflare rejoint un éventail croissant d’outils conçus pour contrer l’exploration web agressive par l’IA. En janvier, nous avons présenté « Nepenthes », un logiciel qui attire également les robots d’exploration IA dans des labyrinthes de faux contenus. Les deux approches partagent le principe fondamental de gaspiller les ressources des robots plutôt que de simplement les bloquer. Cependant, alors que le créateur anonyme de Nepenthes le décrit comme un « malware agressif » destiné à piéger les robots pendant des mois, Cloudflare présente son outil comme une fonctionnalité de sécurité légitime, facilement activable sur son service commercial.

    L’ampleur de l’exploration du web par l’IA semble considérable, selon les données de Cloudflare, qui concordent avec les rapports anecdotiques recueillis auprès de certaines sources. L’entreprise affirme que les robots d’exploration IA génèrent plus de 50 milliards de requêtes quotidiennes sur son réseau, soit près de 1 % du trafic web qu’ils traitent. Nombre de ces robots collectent des données de sites web pour entraîner de vastes modèles linguistiques sans l’autorisation des propriétaires de sites, une pratique qui a donné lieu à de nombreuses poursuites judiciaires de la part de créateurs et d’éditeurs de contenu.

    Cette technique représente une application défensive intéressante de l’IA, protégeant les propriétaires et créateurs de sites web plutôt que de menacer leur propriété intellectuelle. Cependant, la rapidité avec laquelle les robots d’exploration IA pourraient s’adapter pour détecter et éviter de tels pièges reste incertaine, ce qui pourrait contraindre Cloudflare à complexifier ses tactiques de tromperie. Par ailleurs, le gaspillage des ressources des entreprises d’IA pourrait déplaire à ceux qui critiquent les coûts énergétiques et environnementaux perçus liés à l’exploitation des modèles d’IA.

    Cloudflare décrit cela comme la première itération de l’utilisation de l’IA comme moyen de défense contre les robots. Les projets futurs prévoient de rendre le faux contenu plus difficile à détecter et d’intégrer plus facilement les fausses pages dans les structures des sites web. Le jeu du chat et de la souris entre sites web et récupérateurs de données se poursuit, l’IA étant désormais utilisée des deux côtés.

    Source: https://arstechnica.com/ai/2025/03/cloudflare-turns-ai-against-itself-with-endless-maze-of-irrelevant-facts/

    Mirroir magique, dit moi qui est la plus belle ?

    Lèvres vertes comme les épinards, cheveux blancs comme une vieillarde, teint noir comme le charbon

    Blanche neige !

  • 2 Votes
    3 Messages
    101 Vues
    Des robots vont déplacer 41,5 tonnes de sable radioactif à Fukushima

    8cf5354b-93b0-4fa1-8429-ec3b70ec3fa8-image.png

    Des robots commenceront la semaine prochaine à déplacer des sacs de sable utilisés pour absorber l’eau contaminée par la radiation lors de la catastrophe nucléaire de Fukushima en 2011, a déclaré vendredi un porte-parole de l’exploitant de la centrale.

    L’opérateur Tokyo Electric Power Company (Tepco) a indiqué que des sacs situés dans les sous-sols de deux bâtiments de la centrale de Fukushima Daiichi ont été laissés en l’état après la pire catastrophe nucléaire depuis celle de Tchernobyl.

    Les niveaux de radiation à la surface de ces sacs atteignent 4,4 sieverts par heure, soit un niveau mortel si “des humains s’en approchent”, a déclaré à l’AFP Tatsuya Matoba, porte-parole de Tepco. Selon des médias japonais, il reste 2.850 sacs, soit 41,5 tonnes à collecter, un chiffre qui n’a pas été confirmé par l’opérateur.

    Deux robots développés pour déplacer les sacs, dont l’un est doté d’une griffe mobile, ont été installés mercredi dans les étages souterrains des bâtiments, a indiqué M. Matoba.

    Fin de l’opération prévue pour 2028

    A partir de la semaine prochaine, les ouvriers les utiliseront pour sortir “avec précaution” les sacs de sable dans le cadre d’une opération que Tepco souhaite achever avant la fin de l’année fiscale japonaise 2027 (mars 2028). Une fois retirés, ces sacs seront placés dans des conteneurs pour matières radioactives et conservés sur un site de stockage temporaire à l’extérieur des bâtiments du site, a précisé le porte-parole.

    Environ 880 tonnes de matières radioactives restent présentes sur le site de Fukushima, le retrait de ces débris est considéré comme le défi le plus complexe du projet de démantèlement qui devrait durer des décennies.

    Après avoir collecté un échantillon de 0,7 grammes de débris radioactifs sur le site l’an dernier, Tepco a indiqué que l’entreprise se préparait à une deuxième collecte d’échantillons cette année.

    Source: https://www.7sur7.be/monde/la-fin-de-loperation-est-prevue-pour-2028-des-robots-vont-deplacer-41-5-tonnes-de-sable-radioactif-a-fukushima~a30986ff/

    C’est vraiment gentil d’en faire profiter tout le monde en mettant ce sable, en douce, à l’air libre ou dans l’eau…

    Et pour ceux qui ont la mémoire courte, l’eau contaminée est retournée à la mer, c’est juste une question de temps.

  • 1 Votes
    3 Messages
    106 Vues

    @duJambon a dit dans Science et Philo: Si vous pétiez dans un bocal et l'ouvriez 20 ans plus tard, sentirait-il encore le pet ? :

    un pet particulièrement puissant composé de 1 % de sulfure d’hydrogène

    C’est un gaz de combat! C’est un coup à faire évacuer un gymnase… sont fous ces scientifiques! :mouhaha:

  • 2 Votes
    3 Messages
    91 Vues

    @tudikoi A vie de quoi ? du programme, et encore, il leur suffit de changer de nom.

    Si c’est pour un partage perso, par exemple entre maison et résidence secondaire, il vaut mieux créer un tunnel vpn, les deux bécannes auront le même réseau local et y’aura rien à payer, mais si c’est avec des potes, c’est une autre histoire…

  • 0 Votes
    1 Messages
    46 Vues

    Le réseau Pravda, basé à Moscou, injecte des masses considérables de faux contenu dans les services d’IA, de celui d’OpenAI à celui de Google. En parallèle, l’administration américaine somme les scientifiques de l’IA d’éliminer les «biais idéologiques» de leurs modèles

    La fiabilité des chatbots était déjà loin d’être extraordinaire, entre réponses inventées, bricolées et truffées de biais. Désormais, une autre menace plane sur ChatGPT, Gemini ou Claude: la désinformation. Dans une récente étude, la société NewsGuard montre combien un réseau, basé à Moscou tente, souvent avec succès, de manipuler les résultats affichés par les chatbots. Et en parallèle, l’administration Trump aimerait elle aussi beaucoup influencer ces réponses…

    La désinformation russe était déjà largement documentée sur les réseaux sociaux. Elle s’attaque désormais aux services d’intelligence artificielle, de plus en plus utilisés pour s’informer et se documenter. Selon NewsGuard, un réseau de désinformation basé à Moscou et baptisé Pravda – «vérité» en russe – tente d’infiltrer les données récupérées par les chatbots, en publiant de fausses affirmations et de la propagande. Le but étant que ces chatbots «recrachent» ensuite ces contre-vérités aux utilisateurs.

    Article pour abonnés: https://www.letemps.ch/cyber/chatgpt-devient-infeste-par-la-desinformation-russe-et-attention-donald-trump-veut-aussi-l-influencer

  • Nvidia et Disney s’associent dans la robotique

    1
    0 Votes
    1 Messages
    27 Vues

    Je ne sais pas si Frandroid veut nous vendre du rêve, quoi qu’il en soit (et moi, je vois plutôt Wall-E):

    https://www.frandroid.com/marques/nvidia/2547541_disney-nvidia-lere-des-robots-est-la

  • 0 Votes
    1 Messages
    40 Vues

    Google s’offre Wiz pour 32 milliards de dollars, sa plus grosse acquisition à ce jour. Si vous ne connaissez pas Wiz, et bien cette startup israélo-américaine spécialisée en cybersécurité protège les infrastructures cloud, y compris celles d’Amazon et Microsoft. Un coup stratégique pour Google Cloud donc, qui veut rattraper ses concurrents. L’accord reste sous surveillance des autorités.

    Google mise gros sur la cybersécurité

    32 milliards de dollars. C’est la somme colossale que Google va débourser pour s’offrir Wiz, une startup spécialisée dans la protection des services cloud. Une acquisition qui surpasse de loin le précédent record du géant américain : Motorola Mobility, racheté pour 12,5 milliards en 2011. L’objectif de ce rachat ? Renforcer Google Cloud face à Amazon Web Services (AWS) et Microsoft Azure, ses deux plus grands rivaux, incontournables sur le marché du cloud computing.

    Fondée en 2020 par d’anciens cadres de Microsoft et des experts en cybersécurité de l’armée israélienne, Wiz s’est imposée en un temps record comme une référence du secteur. Son secret ? Une solution capable de détecter et de prévenir les menaces sur les infrastructures cloud, qu’elles soient hébergées chez Google, Amazon ou Microsoft. Un positionnement stratégique et agile, qui a séduit de nombreux clients, dont la moitié du Fortune 100 (les 100 plus grosses entreprises américaines donc), rien que ça…

    Wiz, une pépite qui valait de l’or

    Wiz n’en était pas à son premier flirt avec Google. En 2024, la firme de Mountain View avait déjà tenté de la racheter pour 23 milliards de dollars, mais la startup avait préféré décliner, en misant plutôt sur une introduction en bourse. Finalement, Google est revenu à la charge avec une offre plus alléchante (+9 milliards ajouté à la proposition, rien que ça), réussissant cette fois à convaincre les fondateurs et investisseurs.

    En quatre ans, Wiz a connu une ascension fulgurante. En 2022, elle était valorisée à 12 milliards de dollars. En 2024, elle affichait un chiffre d’affaires de 500 millions, avec l’ambition d’atteindre 1 milliard dès 2025. Pas étonnant que Google ait mis le paquet pour mettre la main dessus.

    Un coup dur pour la concurrence ?

    Avec ce rachat, Google muscle clairement son jeu en cybersécurité. Wiz viendra compléter le travail amorcé avec Mandiant, un autre spécialiste du domaine racheté en 2022 pour 5,4 milliards de dollars. L’enjeu est de taille : Microsoft génère déjà plus de 20 milliards de dollars par an avec ses services de sécurité cloud. Google espère donc combler son retard et convaincre plus d’entreprises d’adopter ses solutions.

    Sauf qu’attention, ce rachat ne plaît bien sûr pas à tout le monde. Wiz était jusqu’ici une entreprise indépendante, compatible avec tous les fournisseurs de cloud. Son passage chez Google pose la question : continuera-t-elle à protéger les infrastructures d’Amazon et Microsoft ? Pas sûr.

    Un deal sous haute surveillance

    L’accord doit encore être validé par les autorités américaines, qui scrutent de très près les mouvements des géants de la tech. Google fait déjà face à plusieurs enquêtes antitrust, et cette acquisition pourrait bien compliquer sa situation. Si la Federal Trade Commission américaine estime que ce rachat nuit à la concurrence, elle pourrait bloquer ou ralentir la transaction.

    Reste à voir comment Google va rassurer. Pour l’instant, la firme assure que Wiz continuera à travailler avec tous les fournisseurs cloud… Mais dans les faits, difficile d’imaginer qu’elle ne va pas privilégier sa propre plateforme. Une affaire à suivre donc !

    – Sources :

    https://www.nytimes.com/2025/03/18/technology/google-alphabet-wiz-deal.html

    https://www.lefigaro.fr/secteur/high-tech/avec-wiz-google-realise-la-plus-grosse-acquisition-de-son-histoire-pour-33-milliards-de-dollars-20250318

    https://korben.info/google-claque-32-milliards-pour-wiz-sa-plus-grosse-acquisition-jamais-realisee.html

  • 0 Votes
    1 Messages
    34 Vues

    Employé par un sous-traitant d’Apple, Thomas le Bonniec dit avoir écouté 46’000 enregistrements réalisés par l’assistant vocal Siri. Une partie de cette masse d’informations aurait été enregistrée à l’insu des clients d’Apple. Une plainte a été déposée en France sur la base de son témoignage.

    La Ligue des droits de l’Homme accuse Apple de violation de la vie privée à travers des enregistrements non consentis et de traitement illicite des données personnelles. Elle a déposé une plainte en France le mois dernier, qui repose largement sur le témoignage de Thomas Le Bonniec, ancien employé de Global Technical Service, un sous-traitant d’Apple actif en Irlande.

    “Mon travail consistait à écouter 1300 enregistrements par jour et à corriger la transcription qui en était faite”, explique le lanceur d’alerte mardi dans l’émission “A Bon Entendeur” de la RTS.

    b2a8b152-a522-4b88-b421-9cbf5e93ecdd-image.png J’ai entendu quelqu’un parler de sa sclérose en plaques, quelqu’un qui parlait d’une fausse couche

    Sur ces enregistrements de l’assistant vocal Siri, il raconte avoir entendu “des choses extrêmement intimes, des données à caractère sensible. J’entendais beaucoup d’enfants lorsque je travaillais sur les iPads”. Des informations médicales et politiques aussi: “J’ai entendu quelqu’un parler de sa sclérose en plaques, quelqu’un qui parlait d’une fausse couche. D’appartenance syndicale, de préférences politiques”. Il affirme avoir écouté environ 46’000 enregistrements, d’une durée moyenne de 15 à 30 secondes pour l’essentiel.

    “Plusieurs millions d’enregistrements”

    Les faits remontent à 2019. Avant de quitter son emploi, Thomas Le Bonniec a réalisé des captures d’écran qui documentent les activités qu’il dénonce aujourd’hui: un système d’écoute à grande échelle qu’il qualifie de dystopique. “Avec cela, il y a la preuve qu’il s’agit de plusieurs millions d’enregistrements qui concernent des utilisateurs dans plusieurs pays, au moins une dizaine.”

    Apple a pour sa part annoncé des changements dans le fonctionnement de Siri en août 2019. “Face aux craintes des utilisateurs, nous avons immédiatement suspendu la notation humaine des requêtes envoyées à Siri”, écrivait alors l’entreprise américaine.

    Ces entreprises se comportent comme si elles étaient au-dessus de la loi. Et cela donne des idées à des hommes politiques

    “Avant de suspendre notre programme de notation, nous avions mis au point une procédure consistant à passer en revue un infime échantillon des enregistrements audio de requêtes envoyées à Siri, moins de 0,2%, avec leurs transcriptions. Cela nous permettait d’évaluer la qualité de la réponse de Siri et d’améliorer sa précision”. Depuis, les utilisateurs peuvent choisir de participer ou non “à l’amélioration de Siri en lui donnant accès à des échantillons audio de leurs requêtes”.

    Dans ce contexte, la RTS a appris que des conversations suisses étaient ciblées par ces travaux d’écoute, Apple ayant engagé des locuteurs suisses de langue maternelle ‘romande’ et ‘alémanique’ pour effectuer cette tâche.

    95 millions pour un accord aux Etats-Unis

    Aux Etats-Unis, un recours collectif remontant à 2019 accusait également Apple d’avoir enregistré des conversations via Siri à l’insu des utilisateurs. Les consommateurs reprochaient aussi au géant informatique d’avoir transmis ces informations à des tiers. Des accusations réfutées par l’entreprise, qui vient toutefois d’accepter de verser 95 millions de dollars d’indemnisation pour mettre un terme à cette procédure judiciaire.

    Pour Thomas Le Bonniec, ces pratiques sont porteuses de risques, au-delà de leurs propres pratiques commerciales: “Ces entreprises se comportent comme si elles étaient au-dessus de la loi. Et cela donne des idées à des hommes politiques […] qui cherchent à permettre à la police d’activer à distance les téléphones portables des personnes qui seraient impliquées d’abord dans des affaires de narcotrafic, mais ça s’étendra à toutes sortes de choses.”

    Et de conclure: “Lorsque les entreprises privées se comportent de cette manière, les gouvernements, y compris dits démocratiques, peuvent être incités à se comporter de manière de plus en plus autoritaire et illibérale”.

    Source et vidéos: https://www.rts.ch/info/sciences-tech/2025/article/siri-un-lanceur-d-alerte-revele-l-ecoute-massive-de-conversations-privees-28826139.html

  • 5 Votes
    6 Messages
    145 Vues

    La loi narcotrafic, c’est à peu de chose près la loi sécurité retoquée il y a 2 ans avec quelques aménagements. L’allongement de la détention provisoire et le décryptage des messageries ont déjà fait débats houleux pendant les propositions de lois sécurités. Le décryptage des messageries serait l’ouverture à la surveillance des masses. C’est le grand rêve de Darmanin qui demande depuis des années la recherche et la reconnaissance des indics de presse entre autres.

    Pour faire une bonne pêche aux narcotrafiquants, il faut plus de pêcheurs. Mettre plus de lignes ne sert à rien si personne ne les relève.

  • 1 Votes
    1 Messages
    48 Vues

    La nouvelle IA permet l’édition de photos sans compétence particulière, notamment l’ajout d’objets et la suppression de filigranes

    fcd0c526-7e1c-40ac-ac88-e181d1150ea4-gemini_multimodal_images_header-1152x648.jpg

    Un nouveau modèle d’IA Google est en ligne, capable de générer ou de modifier des images aussi facilement que de créer du texte, dans le cadre de la conversation de son chatbot. Les résultats ne sont pas parfaits, mais il est fort possible que, dans un avenir proche, tout le monde puisse manipuler des images de cette manière.

    Mercredi dernier, Google a étendu l’accès aux capacités natives de génération d’images de Gemini 2.0 Flash, rendant cette fonctionnalité expérimentale accessible à tous les utilisateurs de Google AI Studio . Auparavant réservée aux testeurs depuis décembre, cette technologie multimodale intègre des capacités natives de traitement de texte et d’images dans un seul modèle d’IA.

    Le nouveau modèle, intitulé « Gemini 2.0 Flash (Image Generation) Experimental », est passé quelque peu inaperçu la semaine dernière, mais il a attiré davantage d’attention ces derniers jours en raison de sa capacité à supprimer les filigranes des images, bien qu’avec des artefacts et une réduction de la qualité de l’image.

    Ce n’est pas la seule astuce. Gemini 2.0 Flash permet d’ajouter et de supprimer des objets, de modifier le décor, l’éclairage, de tenter de modifier l’angle de l’image, de zoomer ou de dézoomer, et d’effectuer d’autres transformations, avec plus ou moins de succès selon le sujet, le style et l’image.

    Pour y parvenir, Google a entraîné Gemini 2.0 sur un vaste ensemble de données d’images (converties en jetons) et de texte. Les connaissances du modèle sur les images occupent le même espace de réseau neuronal que ses connaissances sur les concepts du monde issus de sources textuelles. Il peut donc générer directement des jetons d’images qui sont ensuite reconvertis en images et transmis à l’utilisateur.

    2f5d01c3-519e-49b0-a172-8edd514cba80-image.png
    Ajout d’un barbare en ski nautique à une photo avec Gemini 2.0 Flash

    L’intégration de la génération d’images dans un chat IA n’est pas une nouveauté en soi : OpenAI a intégré son générateur d’images DALL-E 3 à ChatGPT en septembre dernier, et d’autres entreprises technologiques comme xAI ont suivi. Mais jusqu’à présent, chacun de ces assistants de chat IA faisait appel à un modèle d’IA basé sur la diffusion distinct (qui utilise un principe de synthèse différent de celui des LLM) pour générer des images, qui étaient ensuite renvoyées à l’utilisateur dans l’interface de chat. Dans ce cas, Gemini 2.0 Flash est à la fois le modèle de langage étendu (LLM) et le générateur d’images IA réunis en un seul système.

    Il est intéressant de noter que le GPT-4o d’OpenAI est également capable de générer des images natives (le président d’OpenAI, Greg Brock, avait déjà évoqué cette fonctionnalité sur X l’année dernière), mais cette société n’a pas encore proposé de véritable sortie d’images multimodales. Cela s’explique peut-être par le fait que la production d’images multimodales est très coûteuse en calcul, car chaque image, qu’elle soit saisie ou générée, est composée de jetons qui s’intègrent au contexte qui parcourt le modèle d’image à chaque invite successive. De plus, compte tenu des besoins de calcul et de la taille des données d’entraînement nécessaires à la création d’un modèle multimodal visuellement complet, la qualité de sortie des images n’est pas encore aussi bonne que celle des modèles de diffusion.

    efdd19d8-1de6-4f97-b5d7-b35bb4f66994-image.png
    Créer une autre image d’une personne avec Gemini 2.0 Flash

    Une autre raison pour laquelle OpenAI a hésité pourrait être liée à la « sécurité » : de la même manière que les modèles multimodaux entraînés sur l’audio peuvent absorber un court extrait de la voix d’une personne et l’imiter parfaitement (c’est ainsi que fonctionne le mode vocal avancé de ChatGPT, avec un extrait de voix d’un doubleur qu’il est autorisé à imiter), les modèles de sortie d’images multimodaux sont capables de simuler la réalité médiatique de manière relativement simple et convaincante, à condition de disposer de données d’entraînement et de calculs appropriés. Avec un modèle multimodal suffisamment performant, les deepfakes et les manipulations photo potentiellement dangereuses pourraient devenir encore plus faciles à produire qu’aujourd’hui.

    Le mettre à l’épreuve

    Alors, que permet exactement Gemini 2.0 Flash ? Sa prise en charge de l’édition d’images conversationnelle permet notamment aux utilisateurs d’affiner leurs images de manière itérative grâce à un dialogue en langage naturel, avec plusieurs invites successives. Vous pouvez lui parler et lui indiquer ce que vous souhaitez ajouter, supprimer ou modifier. C’est imparfait, mais c’est le début d’un nouveau type de fonctionnalité d’édition d’images native dans le monde de la technologie.

    Nous avons soumis Gemini Flash 2.0 à une batterie de tests informels de retouche d’images par IA, et vous pouvez voir les résultats ci-dessous. Par exemple, nous avons supprimé un lapin d’une image dans un jardin herbeux. Nous avons également supprimé un poulet d’un garage en désordre. Gemini remplit l’arrière-plan avec sa meilleure estimation. Pas besoin de pinceau de clonage ! Attention, Photoshop !

    4dfe7374-ac75-4195-b31a-62afc76c120b-image.png
    Enlève mon ex de la photo

    bbac8932-7ceb-48c9-863f-7db51c3e8459-image.png

    plus dans la source

    Et oui, vous pouvez supprimer les filigranes. Nous avons essayé de supprimer un filigrane d’une image Getty Images, et cela a fonctionné, même si l’image obtenue est loin d’atteindre la résolution et la qualité de détail de l’original. En fin de compte, si votre cerveau peut visualiser une image sans filigrane, un modèle d’IA le peut aussi. Il remplit l’espace du filigrane avec le résultat le plus plausible, basé sur ses données d’entraînement.

    a16482ac-528d-49e6-a4f8-e2a1659fac57-image.png

    Source et plus: https://arstechnica.com/ai/2025/03/farewell-photoshop-googles-new-ai-lets-you-edit-images-by-asking/

  • 0 Votes
    2 Messages
    51 Vues

    Enfin des mises à jour utiles. :ahah:

  • Combien d'électricité consomme une IA ?

    1
    0 Votes
    1 Messages
    36 Vues

    Les centres de données consomment beaucoup d’électricité. Près d’un tiers de la demande d’électricité en Irlande pourrait provenir des centres de données d’ici 2026.

    On estime que chaque question de ChatGPT consomme environ 10 fois plus d’électricité qu’une recherche traditionnelle sur Google.

    Selon l’institut de recherche à but non lucratif Electric Power Research Institute, une requête ChatGPT consomme 2,9 wattheures, contre 0,3 wattheure pour les requêtes Google traditionnelles.

    Avec une estimation de 9 milliards de recherches quotidiennes, cela représenterait une demande supplémentaire de près de 10 TWh d’électricité par an.

    be3d7e46-384d-43c1-b14a-bdac5a0d3805-image.png

    L’industrie de l’IA s’appuie sur des centres de données pour former et exploiter ses modèles, ce qui entraîne une augmentation de la demande d’énergie et contribue aux émissions mondiales de gaz à effet de serre.

    Microsoft a annoncé que ses émissions de CO2 avaient augmenté de près de 30 % depuis 2020 en raison de l’expansion de ses centres de données.

    Les émissions mondiales de gaz à effet de serre de Google en 2023 étaient presque 50 % plus élevées qu’en 2019, en grande partie à cause de la demande d’énergie liée aux centres de données.

    L’utilisation de l’énergie par l’intelligence artificielle ne représente actuellement qu’une fraction de la consommation d’énergie du secteur technologique et est estimée à environ 2 à 3 % du total des émissions mondiales.

    Toutefois, ce pourcentage est susceptible d’augmenter à mesure que de plus en plus d’entreprises, de gouvernements et d’organisations utilisent l’IA pour améliorer l’efficacité et la productivité.

    Où se trouvent les centres de données dans l’UE ?

    Il existe actuellement plus de 8 000 centres de données dans le monde, dont environ 16 % sont situés en Europe.

    La majorité de ces centres sont concentrés dans les centres financiers de Francfort, Londres, Amsterdam, Paris et Dublin.

    Selon l’Agence internationale de l’énergie (AIE), la consommation d’électricité dans le secteur des centres de données de l’Union européenne devrait atteindre près de 150 TWh d’ici 2026.

    La demande d’électricité des centres de données en Irlande était de 5,3 TWh en 2022, ce qui représente 17 % de l’électricité totale consommée dans le pays.

    Cela équivaut à la quantité d’électricité consommée par tous les bâtiments résidentiels urbains.

    Si l’utilisation des applications d’IA continue à se développer rapidement, le secteur pourrait représenter 32 % de la demande totale d’électricité du pays d’ici 2026.

    96196e72-98fd-46b0-936f-043d05311e4a-image.png

    Le Danemark héberge également 34 centres de données, dont la moitié est située à Copenhague.

    Comme en Irlande, la demande totale d’électricité du Danemark devrait augmenter principalement en raison de l’expansion du secteur des centres de données, qui devrait consommer 6 TWh d’ici 2026, soit un peu moins de 20 % de la demande d’électricité du pays.

    Dans le même temps, les centres de données des pays nordiques - tels que la Suède, la Norvège et la Finlande - bénéficient de coûts d’électricité plus faibles.

    Cela est dû à une demande de refroidissement plus faible en raison de leur climat plus froid.

    Le plus grand acteur parmi les pays nordiques est la Suède, avec 60 centres de données, dont la moitié à Stockholm.

    Compte tenu des objectifs de décarbonisation, la Suède et la Norvège pourraient encore accroître leur participation au marché des centres de données, car la quasi-totalité de leur électricité est produite à partir de sources à faible teneur en carbone.

    Source: https://fr.euronews.com/my-europe/2025/03/17/combien-delectricite-consomme-une-ia

  • 0 Votes
    1 Messages
    36 Vues

    Les propriétaires de téléviseurs intelligents et de sticks de streaming fonctionnant sous Roku OS sont déjà confrontés à des publicités vidéo sur l’écran d’accueil. Roku teste désormais ce qui pourrait se passer si l’application allait plus loin et obligeait les utilisateurs à regarder une publicité vidéo avant d’accéder à l’écran d’accueil de Roku OS.

    041f555c-d83c-4418-a1e6-abaa27566367-http_3A_2F_2Fimage.roku_.com_2Fw_2Frapid_2Fimages_2Foem-spotlight_2Fc7edebd0-bd36-4a95-b5ca-98783b601a80-1152x648-1742238085.jpg

    Des signalements de clients Roku voyant des publicités vidéo s’afficher automatiquement avant d’accéder à l’écran d’accueil du système d’exploitation ont commencé à apparaître en ligne cette semaine. Un utilisateur de Reddit, par exemple, a publié hier : « Je viens d’allumer mon Roku et j’ai vu une publicité pour un film, avant même d’accéder à l’écran d’accueil habituel. » Plusieurs utilisateurs ont apparemment signalé avoir vu une publicité pour le film Vaiana 2. Les publicités proposent une option de fermeture, mais certains utilisateurs ne semblent pas l’avoir vue.

    Contacté pour un commentaire, un porte-parole de Roku a partagé une déclaration confirmant que la diffusion automatique des publicités est un comportement attendu, mais qu’elle n’est pas encore intégrée de manière permanente au système d’exploitation Roku. Roku a affirmé qu’il s’agissait simplement d’un test de la fonctionnalité publicitaire.

    Le représentant de Roku a déclaré que l’activité de Roku « a toujours nécessité et nécessitera toujours des tests et des innovations continus en matière de conception, de navigation, de contenu et de nos produits publicitaires de premier ordre », ajoutant :

    Notre test récent n’est que le dernier exemple en date, alors que nous explorons de nouvelles façons de présenter les marques et la programmation tout en offrant une expérience utilisateur agréable et simple.

    “Inacceptable”

    La plupart des commentaires examinés par Ars Technica concernant le « test » marketing suggèrent que les clients abandonneraient leur appareil Roku si le logiciel continuait à les forcer à regarder une publicité avant d’accéder au contenu souhaité. Un utilisateur du forum communautaire Roku a écrit :

    J’espère que c’était un hasard. J’ai jeté tous mes cartons Amazon il y a des années à cause de ces déchets. Si ça continue, mon Roku sera le prochain.

    Les utilisateurs du forum qui craignaient que le changement soit permanent ont qualifié les publicités d’« inacceptables » et d’« intrusives ».

    Si Roku augmente la charge publicitaire sur les appareils de ses clients, passant d’images fixes à des publicités animées avec son , cela mettra à rude épreuve ses limites. Certains utilisateurs qui toléraient une image statique sur une partie négligée de leur écran pourraient ne plus accepter des formats publicitaires plus distrayants.

    « Je pourrais accepter la publicité statique sur le côté. Imposer une publicité bruyante est horrible », a écrit un utilisateur de Reddit.

    En tant que marque de matériel de streaming à petit prix, Roku est réputée pour repousser les limites de la publicité. Roku est même allée jusqu’à déposer un brevet pour une technologie permettant d’afficher des publicités sur tout appareil branché sur votre téléviseur (Roku n’a jamais réellement implémenté cette fonctionnalité).

    Outre Roku, il existe des plateformes de télévision connectée moins intrusives en termes de publicité. Cependant, il devient de plus en plus difficile pour les utilisateurs de téléviseurs connectés d’éviter les publicités. Tous les fabricants de téléviseurs, des marques d’entrée de gamme aux marques haut de gamme , s’appuient de plus en plus sur la publicité et le suivi pour accroître leurs revenus dans un contexte de baisse des prix des appareils, de ventes, d’innovation et de concurrence accrue .

    Source: https://arstechnica.com/gadgets/2025/03/roku-says-unpopular-autoplay-ads-are-just-a-test/