L’intelligence artificielle et surtout les grands modèles de langage ont des conséquences directes sur la consommation électrique du numérique. Deux pistes sont mises en avant par le CNRS pour limiter ses effets. Améliorer l’efficacité des algorithmes et des datacenters, et/ou revoir les usages.
Qui dit en ce moment intelligence artificielle, dit obligatoirement amoncellement de données, entraînement et, en ce moment, (grands) modèles de langage. Pour gérer tout ce petit monde, il faut des datacenters, qui consomment de l’électricité et des ressources (eau par exemple).
En quelques mois, les agents conversationnels sont devenus omniprésents. Les annonces pleuvent durant les conférences des géants du Net. Dernier exemple en date : Ignite de Microsoft. Face à ces changements importants, le CNRS soulève une question plus compliquée qu’il n’y parait : « quel est le véritable poids de l’IA ? ».
Comment trier la consommation du numérique ?
Le numérique est présent dans quasiment tous les secteurs, ce qui n’est pas sans conséquences sur les études d’impact environnemental. En quelques questions, Denis Trystram (Institut polytechnique de Grenoble et membre du Laboratoire d’informatique de Grenoble) met en lumière une partie du problème.
« Par exemple, faut-il entrer la consommation des véhicules Tesla dans la catégorie du transport ou du numérique ? Est-ce que l’énergie utilisée pour la commande de billets en ligne doit aller dans le bilan du transport ferroviaire ou rester dans celui d’Internet ? ». On peut certainement trouver d’autres exemples à la pelle, mais vous avez l’idée.
De manière globale, les études estiment que le numérique représente 4 à 5 % (parfois avec ± 1/2 % d’écart, mais l’idée reste la même) de la consommation électrique mondiale. L’intelligence artificielle pourrait provoquer une augmentation plus rapide que prévu de ce pourcentage. Il n’avait pas besoin de l’IA pour grimper.
« Déjà plus consommateur que l’aviation civile, le numérique pourrait peser autant que le secteur des transports dès 2025. À eux seuls, les datacenters (centre de données) absorbent 1 % de l’électricité planétaire », affirme le chercheur Denis Trystram. Suivant les études, les chiffres bougent un peu, mais toutes pointent du doigt de fortes augmentations dans les années à venir.
L’Edge computing à la rescousse ?
Le chercheur Denis Trystram travaille aussi sur l’Edge computing, ou informatique en périphérie. Nous avons pour rappel publié un dossier sur les principales notions du cloud. Le but est de rapprocher le stockage et le traitement des données de l’endroit où elles sont produites. Cela pour éviter la circulation de grandes quantités d’informations sur les réseaux.
Dans [un article de septembre](https://next.ink/117857/usages-et-frugalite-quelle-place-pour-les-ia-dans-la-societe-de-demain//http://La quantité de données numériques créées ou répliquées dans le monde ne cesse de gonfler. Entre 2010 à 2020, elle est passée de deux zettaoctets (Zo) – soit 2 000 milliards de gigaoctets (Go) – à 64 Zo. Pis, les prévisions annoncent 181 Zo en 2025), le CNRS donnait quelques chiffres, en se basant sur une étude Statista de 2021. « La quantité de données numériques créées ou répliquées dans le monde ne cesse de gonfler. Entre 2010 à 2020, elle est passée de 2 zettaoctets (Zo) – soit 2 000 milliards de gigaoctets (Go) – à 64 Zo ». Pour 2025, les prévisions tablent sur… 181 Zo, soit presque trois fois plus.
Les serveurs et objets connectés en Edge sont bien moins puissants que les gros datacenters, mais « ils sont aussi et surtout moins coûteux et moins énergivores ». Selon le chercheur, « il n’est pas possible d’y entraîner des modèles d’IA complexes, mais on peut néanmoins y faire tourner des algorithmes déjà opérationnels ».
« Savoir ce que coûtent réellement des pratiques à présent courantes »
L’Edge computing permet donc de proposer des IA plus frugales par rapport à tout centraliser dans des datacenters. La mutualisation permet aussi d’optimiser les ressources. Comme souvent dans ce genre de situation, il n’est pas évident de trouver le bon équilibre. D’autant plus difficile que le point d’équilibre peut varier suivant les besoins et les usages.
« En l’absence de solution technique miracle qui gommera d’un coup la demande énergétique du numérique, la responsabilisation des usagers est vue comme une piste essentielle. Et pour cela, il est nécessaire de savoir ce que coûtent réellement des pratiques à présent courantes », explique le CNRS. Un sujet déjà abordé à de nombreuses reprises, mais ô combien délicat.
Première réaction : « continuer comme avant » et optimiser
Pour Denis Trystram, il y a deux réactions possibles face à la folle augmentation de la consommation du numérique.
« La plus simple, celle des géants du Web, est de continuer comme avant, tout en affirmant que les centres de données sont plus verts. Or, le zéro carbone n’est jamais atteint si l’on prend en compte tous les paramètres matériels ». Il ajoute que « l’optimisation des performances permet de réduire jusqu’à 30 à 40 % de l’impact énergétique des grandes plateformes numériques ».
Le problème étant que ces gains sont rapidement « effacés par l’accélération des usages ». Un sujet que l’on retrouve aussi dans le monde de la téléphonie mobile : la 5G permet de diminuer la consommation et l’empreinte des réseaux, mais décuple les usages et donc la consommation…
Deuxième réaction : revoir les usages
L’autre solution, plus radicale, est de « remettre en cause le modèle tout entier, interroger les comportements et déterminer quels usages sont véritablement nécessaires ». Une piste déjà évoquée par le GDS EcoInfo, un groupement de service du CNRS.
Le discours était exactement le même : « On ne pourra pas maîtriser la consommation énergétique des réseaux mobiles sans imposer une forme de limitation dans les usages […] Malgré des gains considérables en termes d’efficacité énergétique, force est de constater que l’augmentation du trafic de données a au moins compensé ces gains ».
Rien d’étonnant… puisque Denis Trystram est un des membres actifs du GDS EcoInfo. Ce n’est pas la première fois que ce discours apparait dans les publications du CNRS, le Centre souhaite-t-il faire passer un message ?
L’IA est aussi un vecteur de croissance économique
Le CNRS donne aussi la parole à Gilles Sassatelli (directeur de recherche au Laboratoire d’informatique, de robotique et de microélectronique de Montpellier). Il ajoute une dimension économique à la question de la consommation et des usages. « Il ne faut pas se leurrer, l’IA est considérée comme un vecteur de croissance économique par beaucoup de secteurs d’activité. En l’état, tous les progrès scientifiques en l’efficacité énergétique des IA seront annulés par effet rebond ».
Pour simplifier, au lieu de réduire la consommation du numérique, les économies sont « perçues comme une opportunité d’utiliser davantage les outils numériques ». Cette manière de voir les choses est la conséquence directe d’une croyance populaire : « plus un modèle est gros, meilleur il est ». Pour preuve, la surenchère de gros chiffres lorsqu’il est question de grands modèles de langage, avec celui qui aura le plus de milliards de paramètres dans son communiqué.
Les mathématiques à l’aide pour réduire la consommation ?
Pour le CNRS, il faut axer la recherche sur l’efficacité énergétique des modèles. Le Centre donne une piste : « on peut réaliser des économies significatives en identifiant les endroits où l’on peut réduire drastiquement la précision des calculs dans les réseaux de neurones ».
Augmenter la précision permet d’avoir des résultats plus proches de la réalité (voire exacts), mais ce n’est pas toujours nécessaire et quelques approximations peuvent considérablement changer la puissance de calcul nécessaire. Diviser par deux la précision peut doubler les performances.
Sur le papier, l’idée est séduisante, mais aucun modèle du genre « ne passe réellement à l’échelle et ne peut rivaliser avec ceux d’IA conventionnels en production », tempère Gilles Sassatelli.
Alors que revoilà les perfs et la « conso » du cerveau
Et on en arrive comme souvent en pareille situation à une comparaison avec un formidable outil dont tout le monde dispose et que les chercheurs aimeraient dupliquer : le cerveau humain. Il nous montre « que les possibilités de progrès sont énormes, car il parvient à accomplir toutes ses tâches avec seulement une dizaine de watts, soit moins que l’énergie nécessaire à une lampe de chevet ».
La conclusion soulève une question au cœur du sujet. Elle n’est pas scientifique ou informatique, mais sociétale : « quelle place souhaitons-nous que les IA occupent dans la société de demain ? ».
Source : next.ink