Actualités High-Tech

1.5k Sujets 7.5k Messages
  • 2 Votes
    2 Messages
    36 Vues

    ben ça tombe bien, mais la twingo est connectée !

  • 3 Votes
    2 Messages
    46 Vues

    Des humains qui “valident” de l’incitation à la violence ?
    narmol !

  • 2 Votes
    1 Messages
    35 Vues

    Le professeur d’économie et auteur Mathias Binswanger déconstruit les belles promesses de la tech

    L’intelligence artificielle devrait bientôt nous submerger et révolutionner la société, prédisent certains géants de la tech. L’économiste Mathias Binswanger tempère cette vision qui révèle surtout les enjeux financiers qui se cachent derrière le battage médiatique.

    8500cb1b-dfec-4fee-9850-d5d3c2ee2e15-image.png

    L’IA est aujourd’hui présentée comme un remède miracle pour pratiquement tous les problèmes économiques: analyser un énorme ensemble de données? ChatGPT le fait en quelques secondes. Communiquer avec des clients et des partenaires en Chine? Un jeu d’enfant grâce aux outils de traduction dopés à l’IA.

    L’économie suisse est d’ailleurs à la pointe de la révolution de l’IA! Dans un sondage réalisé par l’agence de placement Manpower, 67% des cadres suisses déclarent que l’IA a une influence positive sur leur travail. 57% des entreprises suisses se considèrent comme des early adopters, c’est-à-dire qu’elles utilisent déjà l’IA dans leur travail quotidien – une augmentation de 27% par rapport à l’année précédente. Et contrairement à ce que l’on pourrait penser, l’étude montre que l’IA n’est pas perçue comme une menace pour l’emploi.

    Des attentes élevées envers l’IA en tant que nouveau collaborateur

    De son côté, Mathias Binswanger ne voit pas cet engouement pour l’IA d’un très bon œil. L’économiste enseigne à la Haute école spécialisée du Nord-Ouest de la Suisse (FHNW) et vient de publier un livre sur la révolution de l’IA. «Die Verselbstständigung des Kapitalismus» (traduisez «L’autonomisation du capitalisme») fait actuellement partie des best-sellers parmi les livres d’économie, selon Bilanz.

    «Nous sommes naïfs en ce qui concerne l’IA», prévient Mathias Binswanger. Par exemple lorsque les entreprises peinent à trouver suffisamment de personnel en raison de la pénurie de main-d’œuvre qualifiée et qu’elles espèrent pouvoir utiliser l’IA comme «main-d’œuvre supplémentaire». «La numérisation et l’IA n’atténueront guère la pénurie de main-d’œuvre qualifiée», rétorque Mathias Binswanger. Certes, on économise effectivement du personnel dans certains domaines. «En revanche, il faut davantage de personnes qui s’y connaissent en technologies numériques ailleurs.» Au final, cela équivaut à un jeu à somme nulle.

    Cela signifie aussi que nous ne devons effectivement pas craindre un chômage à grande échelle dû à l’IA. Et si vous pensez que l’IA effectuera des tâches routinières ennuyeuses, nous permettant de consacrer davantage de temps à des tâches plus passionnantes et plus créatives, vos espoirs vont être douchés. Le professeur d’économie Mathias Binswanger estime qu’il s’agit d’un leurre. «Les emplois traditionnellement peu attractifs sont remplacés par de nouveaux emplois qui ont tendance à être également peu attractifs.» Au lieu d’avoir plus de temps pour la créativité, l’IA engendrerait plus de bureaucratie sur le marché du travail. «Des départements entiers de conformité seront créés, des questions de protection des données et de responsabilité se poseront, l’IA renforcera la bureaucratie du contrôle de gestion», prévoit-il.

    Les consultants en IA font de bonnes affaires

    Une vision moins optimiste que dans les promesses mirobolantes des entreprises de la tech. «Il y a des intérêts économiques évidents derrière le fait de nous présenter les choses comme si l’IA était une sorte de tsunami qui allait nous submerger», explique Mathias Binswanger. «Les entreprises de conseil qui soutiennent les entreprises dans le domaine de l’IA poussent comme des champignons.» Elles font de bonnes affaires en profitant de l’engouement pour l’IA.

    De nombreuses entreprises suisses peuvent se permettre d’adopter l’IA. Mais va-t-elle vraiment transformer notre économie à grande vitesse? Mathias Binswanger reste sceptique. «Il y a dix ans, on pensait qu’aujourd’hui, nous serions tous sur la route avec des voitures qui se conduisent toutes seules», rappelle-t-il. Les cryptomonnaies devaient supplanter l’argent traditionnel, le métavers devenir la nouvelle place du marché virtuelle. Ces scénarios ne se sont pas réalisés, malgré le battage médiatique.

    Source: https://www.blick.ch/fr/news/tech/nous-sommes-na-fs-en-ce-qui-concerne-lia-le-professeur-deconomie-et-auteur-mathias-binswanger-deconstruit-les-belles-promesses-de-la-tech-id19835170.html

  • 0 Votes
    1 Messages
    39 Vues

    La CNIL espagnole vient de décider la suspension de l’implémentation sur son territoire des fonctionnalités prévues par Meta. L’entreprise voulait les ajouter à Instagram et Facebook à l’occasion des élections européennes pour « empêcher la collecte de données, le profilage des utilisateurs et le transfert d’informations à des tiers ».

    L’Agencia Española de Protección de Datos (AEPD) annonce avoir décidé le blocage préventif de l’implémentation des fonctionnalités que Meta voulait intégrer à Facebook et Instagram pour les élections européennes.

    L’entreprise de Mark Zuckerberg a prévu de lancer deux outils appelés « Election Day Information » (EDI) et Voter Information Unit (VIU). Et, selon l’autorité, Meta récupérerait et traiterait des données concernant l’utilisation de ces outils.

    L’AEPD veut, par cette mesure, empêcher « la collecte de données, le profilage des utilisateurs et le transfert d’informations à des tiers, afin d’éviter que les données personnelles ne soient utilisées par des tiers inconnus et à des fins non explicites ». Cette interdiction aura une durée maximale de trois mois. Meta ne devrait donc pas pouvoir les mettre en place en Espagne lors du scrutin européen.

    La CNIL espagnole considère que le traitement des données prévu par Meta implique une action contraire au RGPD. Au minimum, elle « violerait les principes de protection des données que sont la licéité, la minimisation, et la limitation du stockage ».

    Selon l’agence, ces deux fonctionnalités traiteraient des données personnelles « telles que, entre autres, le nom de l’utilisateur, l’adresse IP, l’âge et le sexe ou des informations sur la manière dont l’utilisateur interagit avec ces fonctionnalités ».

    Éviter un nouveau Cambridge Analytica

    Pour l’autorité, cette récupération et ce stockage des données « mettraient gravement en péril les droits et libertés des utilisateurs d’Instagram et de Facebook, qui verraient augmenter le volume d’informations que Meta collecte à leur sujet, permettant un profilage plus complexe, détaillé et exhaustif, et générant un traitement plus intrusif ».

    Elle ajoute que donner accès à ces informations à des acteurs tiers « entraînerait une ingérence disproportionnée dans les droits et libertés des personnes concernées ».

    Si l’autorité ne le mentionne pas, cette peur qu’elle évoque rappelle l’utilisation des données de millions d’utilisateurs de Facebook lors du scandale de Cambridge Analytica.

    Prévues dans toute l’Europe à l’exception de l’Italie

    L’AEPD explique que Meta lui a indiqué vouloir lancer ces fonctionnalités pour tous les utilisateurs de ses services qui pourront voter aux élections européennes, « _à l’exception de l’Italie, dont l’autorité de protection des données a déjà entamé une procédure à ce suje_t ».

    En effet, en septembre 2022, l’autorité italienne (GPDP) avait déjà mis en place une procédure contre Meta à propos des élections nationales. Elle y évoquait d’ailleurs plus explicitement le scandale Cambridge Analytica.

    Interrogée par TechCrunch, Meta a répondu : « nos outils électoraux ont été expressément conçus pour respecter la vie privée des utilisateurs et se conformer au RGPD. Bien que nous ne soyons pas d’accord avec l’évaluation de l’AEPD, nous avons coopéré ».

    Source : next.ink

  • 1 Votes
    5 Messages
    104 Vues

    Abrutissons l’I.A. avec des données fantaisistes, c’est à notre portée! et ça pourrait même être drôle :ahah:

  • 4 Votes
    2 Messages
    77 Vues

    Et hop une base de plus sur le net en circulation

  • 0 Votes
    42 Messages
    706 Vues
    Microsoft retire la version préliminaire de Windows 11 24H2 après une controverse sur recall

    Ce n’est probablement pas une coïncidence si Microsoft a également discrètement retiré la version de la mise à jour Windows 11 24H2 qu’il avait testée dans son canal Release Preview pour Windows Insiders. Il n’est pas rare que Microsoft arrête de distribuer une version bêta de Windows après sa publication, mais le canal Release Preview est généralement le dernier arrêt pour une mise à jour de Windows avant une version plus large.

    La version extraite de Windows 11 24H2 continuera de fonctionner si vous l’avez déjà téléchargée et installée, mais elle ne sera plus proposée aux personnes qui optent pour le canal Release Preview sur les PC exécutant une ancienne version de Windows 11 comme 22H2 ou 23H2. Vous pouvez toujours télécharger une version légèrement plus ancienne, version 26100.560, au format ISO sur le site Web Windows Insider ; cette version pourra toujours être mise à jour vers la nouvelle version Release Preview chaque fois que Microsoft jugera opportun de la publier.

    Source et plus: https://arstechnica.com/gadgets/2024/06/microsoft-pulls-release-preview-build-of-windows-11-24h2-after-recall-controversy/

  • 2 Votes
    3 Messages
    37 Vues

    @Popaul Aucun risque, je ne fréquente pas les zéros sociaux 🙂

  • 0 Votes
    11 Messages
    123 Vues

    @Indigostar a dit dans Une nouvelle salve de 22 satellites Starlink lancés en orbite basse :

    L’homme a tendance à privilégier ses intérêts à court terme.

    Ça doit venir de notre faible durée de vie :ahah: quand on vivra 600 ans on fera plus gaffe, promis. :mouhaha:

  • 3 Votes
    56 Messages
    1k Vues

    Ben on y est, il faut une IA pour résumer les articles ici … krkrkrkrkrkrkr

  • 1 Votes
    7 Messages
    115 Vues

    @Violence a dit dans Regardez un moteur à 6 axes résoudre un Rubik's Cube en moins d'un tiers de seconde :

    Il est surtout hpi, il en joue même des fois.

    Moi je trouve ça très bien, trop, souvent en souffrent, alors autant en jouer parfois.

  • 1 Votes
    1 Messages
    47 Vues

    –Rien de très étonnant au regard des exigences posées par windows 11, même si elles sont encore contournables.–

    Le support prend fin l’année prochaine, mais Windows 10 reste la version du système d’exploitation la plus utilisée.

    En octobre 2025, Microsoft cessera de prendre en charge Windows 10 pour la plupart des utilisateurs de PC, ce qui signifie plus de support technique et (surtout) plus de mises à jour de sécurité, à moins que vous ne décidiez de les payer . Pour encourager l’adoption, la grande majorité des nouveaux développements Windows se déroulent dans Windows 11, qui recevra l’une de ses plus grandes mises à jour depuis sa sortie cet automne.

    Mais Windows 10 projette une ombre longue. Il reste la version la plus utilisée de Windows selon toutes les mesures accessibles au public, y compris Statcounter (où la croissance de Windows 11 a largement stagné toute l’année) et Steam Hardware Survey . Et en novembre dernier, Microsoft a décidé de publier un lot assez important de mises à jour de Windows 10 qui introduisaient le chatbot Copilot et d’autres modifications du système d’exploitation vieillissant.

    Ce n’est peut-être pas la fin du chemin. Microsoft a annoncé la réouverture d’un canal bêta Windows Insider pour les PC exécutant toujours Windows 10, qui sera utilisé pour tester “de nouvelles fonctionnalités et d’autres améliorations de Windows 10 si nécessaire”. Les utilisateurs peuvent opter pour le canal bêta de Windows 10, que leur PC réponde ou non aux exigences de Windows 11 ; si votre PC est compatible, l’inscription aux canaux Dev ou Canary les moins stables mettra toujours à niveau votre PC vers Windows 11.

    Toutes les nouvelles fonctionnalités de Windows 10 publiées seront ajoutées à Windows 10 22H2 du système d’exploitation , la dernière mise à jour annuelle majeure . Comme d’habitude pour les versions de Windows Insider, Microsoft peut choisir de ne pas publier toutes les nouvelles fonctionnalités qu’il teste, et de nouvelles fonctionnalités seront publiées pour la version publique de Windows 10 “quand elles seront prêtes”.

    Une chose que ce nouveau programme bêta ne change pas est la date de fin de support pour Windows 10, qui, selon Microsoft, est toujours le 14 octobre 2025. Microsoft affirme que rejoindre le programme bêta ne prolonge pas le support. La seule façon de continuer à recevoir les mises à jour de sécurité de Windows 10 au-delà de 2025 est de payer pour le programme Extended Security Updates (ESU) ; Microsoft prévoit de proposer ces mises à jour aux utilisateurs individuels mais n’a toujours pas annoncé de tarifs pour les particuliers. Les entreprises paieront jusqu’à 61 $ par PC pour la première année de mises à jour, tandis que les écoles ne paieront que 1 $ par PC.

    Programme bêta ou non, nous ne nous attendons toujours pas à ce que Windows 10 change radicalement d’ici sa date de fin de support. Nous pensons que la plupart des changements concerneront l’assistant Copilot, étant donné l’agressivité avec laquelle Microsoft a décidé d’ajouter l’IA générative à tous ses produits. Par exemple, la version Windows 11 de Copilot perd sa balise « aperçu » et devient une application qui s’exécute dans une fenêtre normale plutôt que dans une barre latérale persistante, des changements que Microsoft pourrait également choisir d’implémenter dans Windows 10.

    Source: https://arstechnica.com/gadgets/2024/06/microsoft-reopens-beta-program-to-test-new-features-for-windows-10/$¨

  • 2 Votes
    1 Messages
    38 Vues
    32 millions de possibilités 500 000 candidats après filtrage par une I.A. spécialisée 800 Après calculs Hautes performances 150 après simulation 18 avec une A.I. Assistée 1 seul candidat retenu

    Reste les problèmes de faisabilité, de coût, d’approvisionnement, de fabrication en masse, de risques (chimiques, explosifs).

    La vidéo est très intéressante et rentre dans les détails tout en restant à un niveau général.

  • 2 Votes
    1 Messages
    40 Vues

    L’intelligence artificielle et surtout les grands modèles de langage ont des conséquences directes sur la consommation électrique du numérique. Deux pistes sont mises en avant par le CNRS pour limiter ses effets. Améliorer l’efficacité des algorithmes et des datacenters, et/ou revoir les usages.

    Qui dit en ce moment intelligence artificielle, dit obligatoirement amoncellement de données, entraînement et, en ce moment, (grands) modèles de langage. Pour gérer tout ce petit monde, il faut des datacenters, qui consomment de l’électricité et des ressources (eau par exemple).

    En quelques mois, les agents conversationnels sont devenus omniprésents. Les annonces pleuvent durant les conférences des géants du Net. Dernier exemple en date : Ignite de Microsoft. Face à ces changements importants, le CNRS soulève une question plus compliquée qu’il n’y parait : « quel est le véritable poids de l’IA ? ».

    Comment trier la consommation du numérique ?

    Le numérique est présent dans quasiment tous les secteurs, ce qui n’est pas sans conséquences sur les études d’impact environnemental. En quelques questions, Denis Trystram (Institut polytechnique de Grenoble et membre du Laboratoire d’informatique de Grenoble) met en lumière une partie du problème.

    « Par exemple, faut-il entrer la consommation des véhicules Tesla dans la catégorie du transport ou du numérique ? Est-ce que l’énergie utilisée pour la commande de billets en ligne doit aller dans le bilan du transport ferroviaire ou rester dans celui d’Internet ? ». On peut certainement trouver d’autres exemples à la pelle, mais vous avez l’idée.

    De manière globale, les études estiment que le numérique représente 4 à 5 % (parfois avec ± 1/2 % d’écart, mais l’idée reste la même) de la consommation électrique mondiale. L’intelligence artificielle pourrait provoquer une augmentation plus rapide que prévu de ce pourcentage. Il n’avait pas besoin de l’IA pour grimper.

    « Déjà plus consommateur que l’aviation civile, le numérique pourrait peser autant que le secteur des transports dès 2025. À eux seuls, les datacenters (centre de données) absorbent 1 % de l’électricité planétaire », affirme le chercheur Denis Trystram. Suivant les études, les chiffres bougent un peu, mais toutes pointent du doigt de fortes augmentations dans les années à venir.

    L’Edge computing à la rescousse ?

    Le chercheur Denis Trystram travaille aussi sur l’Edge computing, ou informatique en périphérie. Nous avons pour rappel publié un dossier sur les principales notions du cloud. Le but est de rapprocher le stockage et le traitement des données de l’endroit où elles sont produites. Cela pour éviter la circulation de grandes quantités d’informations sur les réseaux.

    Dans [un article de septembre](https://next.ink/117857/usages-et-frugalite-quelle-place-pour-les-ia-dans-la-societe-de-demain//http://La quantité de données numériques créées ou répliquées dans le monde ne cesse de gonfler. Entre 2010 à 2020, elle est passée de deux zettaoctets (Zo) – soit 2 000 milliards de gigaoctets (Go) – à 64 Zo. Pis, les prévisions annoncent 181 Zo en 2025), le CNRS donnait quelques chiffres, en se basant sur une étude Statista de 2021. « La quantité de données numériques créées ou répliquées dans le monde ne cesse de gonfler. Entre 2010 à 2020, elle est passée de 2 zettaoctets (Zo) – soit 2 000 milliards de gigaoctets (Go) – à 64 Zo ». Pour 2025, les prévisions tablent sur… 181 Zo, soit presque trois fois plus.

    Les serveurs et objets connectés en Edge sont bien moins puissants que les gros datacenters, mais « ils sont aussi et surtout moins coûteux et moins énergivores ». Selon le chercheur, « il n’est pas possible d’y entraîner des modèles d’IA complexes, mais on peut néanmoins y faire tourner des algorithmes déjà opérationnels ».

    « Savoir ce que coûtent réellement des pratiques à présent courantes »

    L’Edge computing permet donc de proposer des IA plus frugales par rapport à tout centraliser dans des datacenters. La mutualisation permet aussi d’optimiser les ressources. Comme souvent dans ce genre de situation, il n’est pas évident de trouver le bon équilibre. D’autant plus difficile que le point d’équilibre peut varier suivant les besoins et les usages.

    « En l’absence de solution technique miracle qui gommera d’un coup la demande énergétique du numérique, la responsabilisation des usagers est vue comme une piste essentielle. Et pour cela, il est nécessaire de savoir ce que coûtent réellement des pratiques à présent courantes », explique le CNRS. Un sujet déjà abordé à de nombreuses reprises, mais ô combien délicat.

    Première réaction : « continuer comme avant » et optimiser

    Pour Denis Trystram, il y a deux réactions possibles face à la folle augmentation de la consommation du numérique.

    « La plus simple, celle des géants du Web, est de continuer comme avant, tout en affirmant que les centres de données sont plus verts. Or, le zéro carbone n’est jamais atteint si l’on prend en compte tous les paramètres matériels ». Il ajoute que « l’optimisation des performances permet de réduire jusqu’à 30 à 40 % de l’impact énergétique des grandes plateformes numériques ».

    Le problème étant que ces gains sont rapidement « effacés par l’accélération des usages ». Un sujet que l’on retrouve aussi dans le monde de la téléphonie mobile : la 5G permet de diminuer la consommation et l’empreinte des réseaux, mais décuple les usages et donc la consommation…

    Deuxième réaction : revoir les usages

    L’autre solution, plus radicale, est de « remettre en cause le modèle tout entier, interroger les comportements et déterminer quels usages sont véritablement nécessaires ». Une piste déjà évoquée par le GDS EcoInfo, un groupement de service du CNRS.

    Le discours était exactement le même : « On ne pourra pas maîtriser la consommation énergétique des réseaux mobiles sans imposer une forme de limitation dans les usages […] Malgré des gains considérables en termes d’efficacité énergétique, force est de constater que l’augmentation du trafic de données a au moins compensé ces gains ».

    Rien d’étonnant… puisque Denis Trystram est un des membres actifs du GDS EcoInfo. Ce n’est pas la première fois que ce discours apparait dans les publications du CNRS, le Centre souhaite-t-il faire passer un message ?

    L’IA est aussi un vecteur de croissance économique

    Le CNRS donne aussi la parole à Gilles Sassatelli (directeur de recherche au Laboratoire d’informatique, de robotique et de microélectronique de Montpellier). Il ajoute une dimension économique à la question de la consommation et des usages. « Il ne faut pas se leurrer, l’IA est considérée comme un vecteur de croissance économique par beaucoup de secteurs d’activité. En l’état, tous les progrès scientifiques en l’efficacité énergétique des IA seront annulés par effet rebond ».

    Pour simplifier, au lieu de réduire la consommation du numérique, les économies sont « perçues comme une opportunité d’utiliser davantage les outils numériques ». Cette manière de voir les choses est la conséquence directe d’une croyance populaire : « plus un modèle est gros, meilleur il est ». Pour preuve, la surenchère de gros chiffres lorsqu’il est question de grands modèles de langage, avec celui qui aura le plus de milliards de paramètres dans son communiqué.

    Les mathématiques à l’aide pour réduire la consommation ?

    Pour le CNRS, il faut axer la recherche sur l’efficacité énergétique des modèles. Le Centre donne une piste : « on peut réaliser des économies significatives en identifiant les endroits où l’on peut réduire drastiquement la précision des calculs dans les réseaux de neurones ».

    Augmenter la précision permet d’avoir des résultats plus proches de la réalité (voire exacts), mais ce n’est pas toujours nécessaire et quelques approximations peuvent considérablement changer la puissance de calcul nécessaire. Diviser par deux la précision peut doubler les performances.

    Sur le papier, l’idée est séduisante, mais aucun modèle du genre « ne passe réellement à l’échelle et ne peut rivaliser avec ceux d’IA conventionnels en production », tempère Gilles Sassatelli.

    Alors que revoilà les perfs et la « conso » du cerveau

    Et on en arrive comme souvent en pareille situation à une comparaison avec un formidable outil dont tout le monde dispose et que les chercheurs aimeraient dupliquer : le cerveau humain. Il nous montre « que les possibilités de progrès sont énormes, car il parvient à accomplir toutes ses tâches avec seulement une dizaine de watts, soit moins que l’énergie nécessaire à une lampe de chevet ».

    La conclusion soulève une question au cœur du sujet. Elle n’est pas scientifique ou informatique, mais sociétale : « quelle place souhaitons-nous que les IA occupent dans la société de demain ? ».

    Source : next.ink

  • 4 Votes
    14 Messages
    133 Vues

    @Violence Damned, mais c’est la fission nucléaire que tu nous décris là! :ahah: la chaîne du bonheur qui aurait abouti. :ahah:

  • 0 Votes
    11 Messages
    175 Vues

    L’idée a été reprise d’un film allemand,

    un mec branleur comme pas deux, qui se retrouve prof en lycée et ça part en cacahuète lol

  • 2 Votes
    4 Messages
    97 Vues

    Est ce qu’il va rester un mail qui n’a pas encore fuité 🤔

  • 1 Votes
    1 Messages
    32 Vues

    Le référentiel général de l’écoconception des produits est désormais en ligne. Ce document, très attendu, constitue un premier jet et a la mission délicate de faire bouger les lignes. Il n’est cependant pas contraignant et ambitionne surtout, pour l’instant, la collecte des connaissances et des retours d’expérience.

    Ces dernières années, en France, plusieurs agences mettent l’accent sur la sobriété énergétique. Par extension, la sobriété numérique devient un sujet prégnant, nos usages augmentant continuellement.

    L’Arcep et l’Arcom, en lien avec l’ADEME, publient donc ce référentiel, après la consultation publique d’octobre dernier. L’objectif est clair : intégrer dès la conception des pratiques vertueuses en matière de minimisation de l’empreinte environnementale. La rédaction du document a également bénéficié du concours de la CNIL, de la DINUM et d’Inria.

    Accéder au référentiel de l’écoconception des services numériques (RGESN) Écoconception : de quoi parle-t-on ?

    Avant de plonger dans le référentiel, son périmètre et ses objectifs, il faut s’arrêter un instant sur l’écoconception proprement dite. La définition courante – et reprise par le document – est « l’intégration des caractéristiques environnementales dans la conception du produit en vue d’améliorer la performance environnementale du produit tout au long de son cycle de vie ».

    Une définition qui résume à elle seule l’objectif général du référentiel : minimiser autant que possible la consommation d’énergie et de ressources. Le Graal devient alors un service ayant nécessité le strict minimum à son fonctionnement et n’envoyant que la juste quantité d’informations.

    Tout le monde est concerné (ou presque)

    Le périmètre du référentiel est vaste. Les serveurs, terminaux, box internet, réseaux d’opérateurs, centres de données, les infrastructures logicielles et plus généralement les services numériques sont concernés. On trouve donc aussi bien des sites web que des API (Application Programming Interface), des systèmes d’exploitation, des systèmes d’intelligence artificielle (SIA), tout le SaaS (Software as a Service), les registres de blockchains, plateformes vidéo et autres services en ligne.

    En d’autres termes, tout ce qui touche de près ou de loin au numérique. Mais le référentiel ne se veut pas une bible parée à toutes les utilisations. Comme indiqué, il ne fait « pas obstacle à l’existence de documents d’écoconception complémentaires, plus exhaustifs ou spécifiques à certaines catégories de produits ou services numériques ». Par exemple, un référentiel dédié aux objets connectés (IoT).

    Le document se voulant généraliste et un « socle commun de bonnes pratiques », tous les métiers liés au numérique sont concernés. Tout ce qui touche à la gestion des projets, à la maîtrise d’ouvrage, à l’UX (user experience), aux éléments graphiques, au marketing, à l’ingénierie logicielle ou système, ou encore à la publication de contenus est visé.

    Quatre axes majeurs

    Pour parvenir à maitriser la consommation des services numériques, les trois agences proposent quatre axes principaux d’action.

    D’abord, en soulageant les terminaux. Si la fabrication de ces derniers n’entre pas dans le périmètre du texte, il est possible d’influer sur ce qu’ils utilisent. Par exemple, en veillant à ce que les services aient une consommation mesurée de ressources, pour s’assurer que des appareils anciens puissent continuer à les utiliser.

    Les autres idées comprennent l’adaptation du service au contexte (par exemple, optimiser la vidéo pour la taille de l’écran, pour éviter la 4K sur un smartphone), la possibilité d’utiliser le service sur le plus grand nombre possible d’appareils (interfaces tactiles et claviers physiques), l’usage de l’open source « _comme levier de prolongation de la durée des service_s » (et donc des terminaux et des objets connectés), ainsi que la disponibilité des mises à jour essentielles pendant toute la durée de vie des terminaux. Le référentiel souhaite également que les services puissent être utilisés sur des versions antérieures des systèmes d’exploitation et navigateurs.

    Deuxième axe, la promotion de la sobriété face à la captation de l’attention. Et c’est là un vaste chantier qui s’ouvre pour les agences, car elles souhaitent la restriction des murs de contenus infinis, du déclenchement automatique des vidéos, des notifications intempestives et autres. Le référentiel milite pour des informations claires, la fin des dark patterns (appelés « procédés manipulatoires »), des fonctions telles qu’un bouton ou un mode économie d’énergie. Il est également question de limiter la captation des données et métadonnées à des fins publicitaires.

    Troisième axe, la diminution des ressources mobilisées pendant tout le cycle de vie du service. Les pistes avancées sont nombreuses : interroger les appareils pour adapter les ressources consommées aux besoins réels, réduire le poids des contenus multimédias, limiter les requêtes aux serveurs, minimiser les ressources nécessaires aux calculs asynchrones, favoriser les hébergeurs efficients et limiter l’utilisation de technologies énergivores. La blockchain et l’apprentissage automatique (donc les IA) sont citées.

    Enfin, pour son dernier axe, le référentiel veut promouvoir la transparence, essentiellement avec une approche « par la donnée ». Par exemple, « a minima » par la publication de chiffres sur les émissions de gaz à effet de serre, la consommation énergétique, ainsi que la consommation en eau et en ressources abiotiques minéraux/métaux. Il n’est cependant pas toujours facile d’avoir des chiffres fiables sur lesquels se baser. De même, par la sélection d’un hébergeur transparent sur ses performances environnementales. Enfin, par la publication des objectifs environnementaux.

    Comment s’articule le RGESN pour les structures intéressées ?

    Puisque l’on parle d’un référentiel non contraignant, les structures intéressées par son contenu doivent le prendre en main, via un kit d’autoévaluation, en vue d’une déclaration d’écoconception. Celle-ci, si validée, permet alors à l’entreprise (ou autre) d’en faire la communication, notamment à des fins d’image publique, voire dans sa publicité.

    Le référentiel propose ainsi 78 critères (91 dans le document soumis à consultation en octobre), présentés sous forme de questions. Chacun est accompagné d’une fiche pratique pour en expliquer les tenants et aboutissants. Un indice de priorisation est également présent pour chaque critère. Il tient compte de l’impact estimé sur l’empreinte environnementale, de sa portée systémique, de ses éventuels effets indirects sur d’autres secteurs et du niveau d’ambition de sa mise en œuvre. Le référentiel, dans sa première édition finalisée, comprend trois niveaux : Prioritaire, Recommandé et Modéré.

    L’ensemble permet de calculer un score. Le calcul tient compte des niveaux, puisque chacun possède un facteur de pondération : 1,5 pour Prioritaire, 1,25 pour Recommandé et 1 pour Modéré. L’obtention du score se calcule en divisant les points obtenus par le nombre maximal de points, puis en multipliant le résultat par 100.

    Comme le reste, ces niveaux se présentent comme très généralistes. Le document précise même qu’il s’agit d’informations données « à titre indicatif », puisque la difficulté d’implémentation peut fortement varier d’un service à l’autre et selon le contexte.

    Il fallait cependant que le référentiel tienne compte de cette mise en œuvre et donne des pistes.

    Des critères nombreux et variés

    Le référentiel propose une liste de 78 critères répartis entre les trois niveaux de priorité. Chaque élément est accompagné d’un degré de difficulté : Faible, Modéré ou Fort.

    Les 30 premiers éléments sont prioritaires et sont mis en avant car les plus à même d’avoir un impact significatif sur la sobriété numérique. Certains sont directement liés à la stratégie et posent la question de l’intérêt même du service, surtout après pondération de ses impacts environnementaux. Certaines modifications sur un service peuvent en effet amener à revoir intégralement son fonctionnement, voire sa conception. Des objectifs ont-ils été fixés pour réduire ces impacts ? A-t-il été conçu avec des technologies ouvertes et interopérables ?

    Une partie des éléments a trait à la conception-même du produit et semblent « évidents », dans la mesure où ces questions interviennent presque à chaque fois : lister les profils matériels pouvant servir à accéder au service, la possible utilisation sur d’anciens modèles de terminaux ou versions d’un système d’exploitation, le type de maintenance prévue, etc. Ou, pour deux éléments classés « Fort », une garantie de démarche de réduction des impacts environnementaux imposée aux fournisseurs et la prise en compte des impacts dans la sélection des services tiers.

    Après la stratégie et les spécifications, on trouve six autres rubriques : architecture, expérience et interface utilisateur (UX et UI), contenus, frontend, backend, hébergement et algorithmie. Selon le niveau de priorité, certaines rubriques sont d’ailleurs vides. Par exemple, il n’y a rien pour le frontend en « Prioritaire », aucun critère « Modéré » pour l’algorithmie, etc.

    Certaines rubriques attirent également l’attention au regard de l’actualité. L’algorithmie, justement, parce qu’elle renvoie directement à l’IA. Les questions posées par le référentiel ne sont donc pas étonnantes : une phase d’entrainement est-elle réellement nécessaire ? Le niveau de complexité est-il minimisé et proportionnel à l’usage effectif ? La quantité de données a-t-elle été limitée au strict nécessaire ? La stratégie d’inférence est-elle optimisée ?

    L’hébergement est également un point important. Les questions posées sont classiques et portent sur la mise en place d’une démarche de réduction de l’empreinte, la gestion durable des équipements ou encore d’un PUE minimisé.

    Autre exemple, la vidéo. Le référentiel revient sur l’idée courante d’une adaptation de la qualité selon l’usage, avec mise en avant d’un mode sobriété qui enverrait par exemple du 480p sur smartphone. Les questions posées concernent aussi bien la qualité que la technologie de compression utilisée, la capacité à moduler le flux selon l’appareil visé, etc.

    Autant de fiches pratiques que de critères

    Dans le document, on remarque vite que la partie la plus intéressante se trouve dans les annexes. Ce sont elles qui contiennent les questions et surtout les fiches pratiques qui les accompagnent.

    Ces fiches sont essentielles, car elles détaillent ce qui se cache derrière chaque question : les enjeux, la mise en œuvre, les moyens de tests et de contrôle et une rubrique pour « aller plus loin ».

    Pour reprendre le cas de la vidéo, la fiche technique commence par rappeler qu’elle représentait 66 % du trafic internet en 2023 et rappelle les principaux objectifs. Les codecs AV1, VP9 et HEVC sont mis en avant pour leur efficacité, mais peuvent entrainer une consommation supplémentaire d’énergie si leur décodage n’est pas pris matériellement en charge par la puce, le CPU devant alors s’en occuper.

    Côté mise en œuvre, le codage à débit variable doit être préféré, selon la fiche, éventuellement avec un plafond maximal pour que « les contenus plus complexes restent lisibles avec une connexion internet à bas débit ». On retrouve bien sûr l’idée d’adaptation de la qualité visuelle en fonction du support, quitte à tenir compte de la présence de texte pour augmenter le début, afin d’en préserver la netteté.

    Viennent ensuite plusieurs points à valider afin de remplir le critère : le débit variable, la présence des vidéos dans une définition inférieure à 720p, l’utilisation de codecs accélérés matériellement par la majorité du parc existant et le résumé de tous les choix techniques dans la déclaration d’écoconception.

    Il s’agit bien sûr d’un exemple, mais toutes les fiches sont bâties sur le même modèle. Elles sont plus techniques et concrètes que le reste du document et en constituent d’ailleurs la vraie matière.

    Derrière l’évidente volonté, les vœux pieux ?

    Le document donne de très nombreuses pistes et propulse sous les feux de la rampe une thématique destinée à prendre de l’ampleur. Ne serait-ce que parce que le coût de l’énergie, même si actuellement en baisse, ne reviendra sans doute plus aux anciens niveaux. L’écologie fonctionne mieux quand elle signifie une baisse de la facture. Mais l’énergie n’est qu’une partie du problème, puisque la consommation des matériaux tient également une bonne place dans le référentiel.

    On en revient ainsi à l’idée première : n’utiliser que ce qui est réellement nécessaire. Et là, certaines idées peuvent devenir des vœux pieux, à moins de déclencher un sursaut mondial et d’accorder l’ensemble des violons. Reprenons l’exemple des services qui devraient être disponibles sur les anciens systèmes d’exploitation et appareils. Ce seul point ouvre une cascade d’autres.

    Il faudrait en effet décider les constructeurs de terminaux à entretenir leurs produits sur une durée bien plus longue qu’actuellement. Si Apple fournit en général au moins cinq ans de mises à jour à ses iPhone, le monde des smartphones Android ressemble plus à une jungle. On espère d’ailleurs que la décision de Google de fournir sept ans de mises à jour majeures (et donc au moins autant de mineures) à toute sa gamme Pixel 8 fera tache d’huile dans l’industrie. Moins de modèles, plus de support ?

    Une équation loin d’être évidente, car la plupart des fournisseurs de terminaux et de services sont étrangers. On voit mal comment la France pourrait par exemple convaincre un Samsung de multiplier par deux ou trois la durée de support de ses appareils mobiles. Un règlement européen entrera en vigueur en juin 2025, justement sur les « exigences en matière d’écoconception — smartphones, téléphones portables autres que smartphones, téléphones sans fil et tablettes ». Il est notamment question de proposer « des mises à jour du système d’exploitation pendant au moins cinq ans après la mise sur le marché du produit ».

    Autre problème potentiel, certains services ne peuvent plus fonctionner avec d’anciennes versions de systèmes d’exploitation ou de navigateurs pour des raisons de sécurité. C’est le cas des applications bancaires, qui tolèrent mal par exemple les appareils Android rootés.

    Même constat pour les mesures liées à la captation d’attention. Comment motiver Meta à revoir le fonctionnement de ses murs de contenus infinis, alors qu’ils sont l’essence de services tels que Facebook et Instagram ?

    Un premier pas

    Le référentiel a le mérite de défricher le terrain de l’écoconception. Il n’est pas contraignant et n’aurait pas pu l’être, car valable uniquement pour la France.

    Le maître-mot du RGESN est « sobriété » et, à lui seul, permet d’ancrer un peu la réflexion de l’écoconception dans les consciences. Il entraine des questions comme « A-t-on besoin de ce service ? » ou « Cet usage est-il raisonné ? Approprié ? ».

    Le chemin à parcourir est cependant encore bien long. On le sait depuis longtemps, la consommation du numérique est surtout drainée par la fabrication des appareils. Une part importante de l’économie est fondée sur le renouvellement régulier des produits, longtemps considérés comme (presque) jetables.

    Le document rappelle cependant que si le numérique ne représente actuellement que 2,5 % de l’empreinte carbone en France, ses usages sont amenés à exploser d’ici 2030. L’ADEME estime ainsi que le trafic sera multiplié par 6 et que le nombre d’appareils bondira de 65 %, porté par l’explosion des objets connectés. L’empreinte carbone du numérique augmenterait alors de 45 % et la consommation de ressources abiotiques (métaux et minéraux) de 14 %.

    Comme le dit le référentiel lui-même, il ne s’agit pas de révolutionner l’industrie du numérique, mais d’établir « une base de connaissances et recommandations commune permettant d’accompagner les démarches volontaires d’écoconception ». Dans cette optique, il se veut un « outil d’action et de sensibilisation ».

    De la même manière que les rapports de l’Arcep sur la consommation du numérique s’enrichissent à chaque édition, il sera intéressant de suivre l’évolution du référentiel.

    Nous reviendrons dans un deuxième temps sur certains aspects du RGESN, notamment ses limites et défis.

    Source : next.ink

  • 1 Votes
    4 Messages
    94 Vues

    Autant je suis plutôt satisfait des mesures européennes pour limiter la toute puissance et les abus des GAFAM, même si contraignantes au quotidien, autant là je trouve qu’elle tombe dans l’abus très clairement. Ce n’est pas complètement étonnant, ça va de pair avec la montée générale de l’extrême droite elle-même corrélée avec la baisse du pouvoir d’achat qui ne va pas s’arrêter de sitôt.

    Sinon bonne journée, j’ai à faire

    60315ab8-d40e-460c-baac-4a75d2c3d741-Sans titre.jpg
    fb68f509-23b3-4ef7-aedb-7ca018aac166-Sans titre.jpg

  • 2 Votes
    2 Messages
    67 Vues

    Mais les fdp, ils vont jamais s’arrêter

    Espérons qu’un acteur refuse et continu son service normalement en les envoyant chier