MON ORDINATEUR, MES IA, MES DONNÉES ET MON ÉNERGIE… ON/OFF

Temps de lecture : 7 minutes
mots-clés : IA, Entropy, Energy, Zettabytes, exponentiel, données, informations, énergie, développement durable, high tech, low tech, territoire

Chers lecteurs, chères lectrices,

Mark P. Mills est rédacteur en chef adjoint du City Journal, directeur exécutif du National Center on Energy Analytics, partenaire stratégique du fonds énergétique Montrose Lane et auteur, entre autres, de The Cloud Revolution : How the Convergence of New Technologies Will Unleash the Next Economic Boom and a Roaring( Encounter Books, 2021). Il vient de publier dans City Journal, une revue en ligne sur les phénomènes urbains transversaux (l’urbanisme, la ville, mais également l’économie et la sociologie…), un article passionnant sur la question du développement technologique et la consommation d’énergie. Nous allons le synthétiser ci-dessous et le compléter avec un regarde critique de ces enjeux à l’échelle belge et wallonne.

« La transition énergétique n’aura pas lieu »

source : adobe stock

Tel est le titre de son article publié le 23 mai 2024. En sous-titre, on peut lire le programme : « L’innovation fondamentale dans les domaines de la technologie du cloud et de l’intelligence artificielle nécessitera plus d’énergie que jamais auparavant, brisant ainsi l’illusion que nous allons restreindre les approvisionnements. ». Le ton est donné et sa force est de faire le lien entre l’entropie naturelle et l’entropie des données qui nécessitent de l’énergie pour exister. Et de préciser que l’information est la seule ressource humaine inépuisable. Nous pouvons tout mesurer depuis que l’homme a compris à la fin du 20e siècle que tout était données : notre ADN qui est une source biologique de données tout comme la dernière vidéo YouTube que vous avez adorée.

Bine que le dénominateur commun soit les données, il relève directement que sans machines pour traiter ces données, elles n’existent pour ainsi dire pas. Or, et bien que le concept d’IA existe depuis les années 1950, on constate que l’arrivée du développement des puissantes puces s’est un peu tassée face à la loi de Moore et ont été remplacées par le développement des puces pour IA. Rappelons à cet effet qu’aujourd’hui NVIDIA est devenue l’entreprise la 3e mieux capitalisée au monde avec 3.244 milliards de dollars (500x le PIB de la Belgique). En moins d’un an, ce fabricant de puces a augmenté sa capitalisation à concurrence de la taille de la capitalisation… d’Amazon ! Pourtant NVIDIA faisait déjà partie des « Magnificent 7 », c’est-à-dire les GAFAM élargis. Bref, la fabrication des puces pour IA est devenue un enjeu critique pour l’ensemble d’économie mondiale et selon Mark P. Mills, également conseiller à la Maison-Blanche, un nouveau cycle de la loi d’Airain est lancé.

Loi d’Airain

Il existe deux concepts principaux désignés par le terme « loi d’airain » en économie :

1. La loi d’airain des salaires
2. La loi d’airain de la croissance

La loi d’airain des salaires, également appelée loi de fer des salaires, est une théorie proposée par l’économiste anglais du XVIIIe siècle David Ricardo dans son ouvrage de 1817 intitulé Des principes de l’économie politique et de l’impôt. Ricardo soutenait que les salaires des travailleurs seraient toujours égaux ou proches du niveau de subsistance, le minimum d’argent nécessaire à la survie d’un travailleur et de sa famille. Selon Ricardo, la croissance démographique dépasserait la production alimentaire, ce qui entraînerait une concurrence accrue pour les emplois et une baisse des salaires. À mesure que les salaires baisseraient, les travailleurs auraient moins d’enfants, ce qui finirait par ralentir la croissance démographique et permettrait aux salaires de remonter. Cependant, Ricardo pensait que ce cycle se reproduirait, maintenant, les salaires au niveau de subsistance ou à proximité à long terme. La loi d’airain des salaires était une théorie controversée à son époque et a été contestée par de nombreux économistes depuis. Cependant, elle reste un concept important dans la pensée économique et continue d’être débattue aujourd’hui.

La loi d’airain de la croissance est un concept plus récent, introduit pour la première fois par l’économiste américain Robert J. Barro dans son ouvrage de 1995 intitulé Determinants of Growth (Déterminants de la croissance). La loi de Barro suggère qu’il existe un taux de convergence pour la croissance économique, ce qui signifie que les pays ayant des niveaux de revenu initial plus faible ont tendance à croître plus vite que ceux ayant des niveaux de revenu plus élevés. L’analyse empirique de Barro a révélé que ce taux de convergence se situe autour de 2 % par an, ce qui implique qu’il faudrait environ 35 ans à un pays pour combler la moitié de l’écart entre son niveau de revenu et celui des pays les plus riches. Il attribuait cette convergence à des facteurs tels que la diffusion de la technologie, l’accumulation de capital humain et l’adoption de politiques économiques saines. La loi d’airain de la croissance a également été contestée par certains économistes, mais elle reste une théorie influente dans le domaine de la croissance économique. Elle suggère que les pays à faible revenu ont le potentiel de rattraper les pays les plus riches, mais que ce processus prend du temps et nécessite la mise en œuvre de politiques économiques judicieuses.

Cycle d’Airain des données avec l’IA

Sur base de ces concepts, Mark P. Mills précise qu’un nouveau cycle d’Airain est en route avec les données générées par les IA. Un paradoxe au moment où de nouvelles approches sur le développement durable incluaient une certaine sagesse quant à la réduction des consommations de tous ordres aidés en cela par l’usage intelligent des données qui permettaient d’améliorer les systèmes. L’exemple est celui de la voiture autonome qui, bien que très technologique, offre la possibilité de consommer beaucoup moins d’énergie en ville à chercher une place de parking en la trouvant seule et sur base des données en sa possession. Pour rappel, on passe entre 10 à 15 minutes pour trouver une place dans les centres-villes, quelle que soit la distance parcourue pour venir jusqu’à votre rendez-vous.

Par loi d’Airain, M.P Mills précise également que si la discussion entre la consommation d’énergie d’une réunion Teams ou Zoom est à poser, la question la plus pertinente serait plutôt de savoir si cette réunion aurait eu lieu sans ces outils. En d’autres termes, les nouveaux outils numériques génèrent de nouveaux besoins qui consomment inévitablement de l’énergie. Nous avions déjà parlé de cette problématique dans l’article Avez-vous déjà réfléchi au bilan carbone de vos réunions Zoom et teams ? (28 septembre 2021).

Énergie, mon précieux

Aujourd’hui, la croissance de la génération de données afin de nous fournir de nouvelles informations en est à ses balbutiements et risque fortement de peser bien plus lourd que l’impact de la voiture électrique dont tout le monde parle, souvent sans grand discernement, face aux besoins en énergie. Nvidia, leader de la révolution des puces d’IA et coqueluche de Wall Street, a livré au cours des trois dernières années quelque 5 millions de puces d’IA de haute puissance… C’est après la période « blockchain » dont la question énergétique avait été largement soulevée. Pour mettre les choses en perspective, chaque puce d’IA consomme chaque année à peu près autant d’électricité que trois véhicules électriques. Alors que l’appétit du marché pour les véhicules électriques est faible et finalement limité, l’appétit pour les puces d’IA est explosif et pratiquement illimité.

Photos de Sam Emerson/Metro-Goldwyn-Mayer

Les Magnificient 7 ne sont s’y sont pas trompés, récemment le WSJ publiait: « La dernière obsession des grandes entreprises technologiques est de trouver suffisamment d’énergie ». Une situation confirmée par les entreprises d’énergies aux USA qui constatent que leur augmentation du chiffre d’affaires est intimement liée au développement des centres de données (data center pour les intimes) et Reuters de préciser « Neuf des dix principales compagnies d’électricité américaines ont déclaré que les centres de données étaient une source principale de croissance de la clientèle. ». Précisons encore qu’un « white papers » d’Open AI publié en 2023 précise les besoins en énergie qui ont été nécessaire pour lancer la première version de ChatGPT : l’équivalent de la puissance d’une centrale nucléaire. Dans la revue universitaire Joule qui est spécialisée dans l’analyse énergétique sous toutes ses formes, Alex de Vries (NL) a rédigé un article sur l’empreinte énergétique croissante de l’IA (10 octobre 2023) pour préciser encore que l’ajout de l’IA à la « recherche » sur Google décuple la consommation d’énergie par recherche.
Il semblerait que le Sénat américain a pris la mesure de cette problématique avec la lecture d’une audition urgente le 21 mai 2024 et ayant pour ordre du jour « Opportunités, risques et défis associés à la croissance de la demande d’énergie électrique aux États-Unis ».
En d’autres termes, L’IA nous renvoi à un paradoxe que le New Yorker retranscrit comme Les demandes énergétiques obscènes de l’IA (Elizabeth Kolbert ; 9 mars 2024) avec une estimation de la consommation de ChatGPT à 500.000 kWh/jour… soit 50.000 Parisiens[1].

1.000 centres de données vallent un haut fourneau

L’auteur propose des analogies comptables assez intéressantes que je vous soumets ci-dessous : 1.000 Data Centers similaires aux Data Centers de Google en Belgique (il y en a 4 aujourd’hui, probablement le double dans quelques années), c’est l’équivalent de

  • Une aciérie
  • Chaque mètre carré de data center crée une demande d’énergie électrique 100 fois supérieure à celle d’un mètre carré d’un gratte-ciel

en complément et pour comparaison :

  • L’énergie utilisée pour activer une heure de vidéo est supérieure à la part de carburant consommée par une personne seule sur un trajet de Binche à Mons (17 km) en bus
HF4 en cours de démantèlement , Charleroi porte Ouest. source photo : Sogepa, 2022

Les défis

L’analyse de la relation entre énergie et information devient de plus en plus prégnante dans notre quotidien. Non seulement au regard de la consommation d’internet, entre autres des plateformes telles que YouTube, mais aussi sur la présence de plus en plus omnisciente des données dans notre quotidien. Situation qui est le résultat de la loi de Moore et ses conséquences sur la capacité des ordinateurs à nous rendre de plus en plus de services rapidement et que l’on associerait également avec des technologies telles que la 4G et maintenant la 5G. Pour s’en convaincre, rappelons-nous qu’aujourd’hui l’ensemble de l’histoire de l’humanité avant l’arrivée de l’internet est fabriquée par nos nouveaux besoins en moins de 3 jours ! L’auteur de l’article nous propose un exemple significatif relevant la quantité de données par rapport à la quantité de billets de banque : le nombre de données dispensées dans le monde et par jour correspond à une pile de billets de 1 dollar entre la Terre et le soleil (93 millions de kilomètres) … multiplié par 700.000. Bref, des dimensions qui nous échappent à l’échelle humaine. L’arrivée de Chat GPT est une nouvelle ère de l’information et surtout de sa consommation d’énergie décuplée.

Dans le même temps, l’OCDE précise dans son rapport de 2021 que « La transformation numérique est de plus en plus reconnue comme un moyen d’aider à débloquer les avantages d’une croissance plus inclusive et durable et d’un bien-être social accru. Dans le contexte environnemental, la numérisation peut contribuer à dissocier l’activité économique de l’utilisation des ressources naturelles et de leur impact sur l’environnement. ». L’arrivée de l‘IA semble quelques peut changer la donne, car l’énergie est seulement maitrisée par les pays riches. Le paradoxe de l’arrivée de l’IA dans nos vies est donc un véritable Pharmakon :  d’une part c’est un nouveau potentiel extraordinaire pour mieux traiter la question existentielle de réduction de notre impact sur la planète et d’autre part, cet outil fait partie du problème à résoudre. En effet, si les IA nous permettent demain de mieux mesurer les effets du changement climatique et de les simuler, d’autre part, ces simulations se nourrissent des données qui sont dans des data centers qui consomment de l’énergie. Bref, la question du lien entre énergie et données est devenue cruciale, plus encore, la question de l’entropie proportionnelle entre les données et celle des besoins en énergie pour les maintenir en vie dans le cloud. C’est une question d’équilibre entre l’immatériel et le réel, qui nécessite de repenser la science de l’information dans son ensemble et en lien avec les sciences de la thermodynamique.

Et en fin de compte, chez nous ?

Comme vous le savez, nous avons 4 mégas data centers Google chez nous, entre Mons et bientôt Charleroi (+1). Ces data centers sont déjà gavés à l’IA. Le paradoxe, c’est que si l’énergie sortait hier des cheminées, aujourd’hui elles sont mesurées par la température de l’eau du canal Nimy-Blaton et demain de la basse Sambre. Une température qui a impacté les centres de données de Saint-Ghislain en été 2021 et qui a nécessité un Shutdown temporaire. Demain, le Shutdown sera celui de l’énergie dans un pays qui peine à remplir ses batteries pour l’hiver. Et à la vitesse à laquelle se construit des systèmes d’énergie alternatifs : champs solaires, éoliens, etc., on peut douter de la résilience de nos territoires face aux besoins en données. Quant aux nouvelles centrales nucléaires, certes il faut y réfléchir, mais combien d’années faudra-t-il pour voir celles-ci pointer le bout de leurs cheminées ? On notera que dans ce contexte, les voitures électriques deviennent anecdotiques. Par ailleurs, on peut se demander si Google ne s’est pas étranglé lorsqu’il a entendu que l’ancien premier ministre allait « offrir » de l’énergie à Acelor Mittal pendant 10 ans.

Mais plus encore, cette course à « toujours plus » liée au contexte belge local nous démontre qu’avec la meilleure volonté du monde, nous n’y arriverons pas. Il est donc nécessaire de réfléchir autrement. Nous sommes convaincus qu’une démarche locale, avec le stockage des données locales, chez soi, en entreprise, avec un NAS « RGPD frendly » avec lequel nous pouvons proposer des requêtes locales, liées à un logiciel bien écrit et qui, éventuellement, pourrait également se renseigner sur le cloud est une solution plus « low tech » et surtout plus compatible avec les enjeux actuels et futurs de l’IA. Une nouvelle fois, penser Low Tech et contrôler avec du High Tech. Car ne rêvons pas, personne ne va se priver des IA.

Penser l’entropie de nos usages pour planifier plus sereinement demain

Il résulte de cette nouvelle équation la nécessité impérieuse de réfléchir conjointement des besoins en énergie en fonction des besoins en informations. Ce travail impactera non seulement les stratégies technologiques, mais tout autant les stratégies territoriales, car si Google s’est installé le long de la E42, c’est parce qu’en dessous de cette autoroute circulent des autoroutes de l’information avec des milliers de de kilomètres de fibres optiques. La Wallonie offre une position unique dans le monde, au cœur du triangle Londres-Paris-Amsterdam avec la bande passante la plus élevée au monde. Elle ne sera plus suffisante demain sans énergie en suffisance, quel que soit le type d’énergie choisie.

Bonne et belle journée à vous.

Merci pour le suivi de notre blog-à-idées ou à réflexions, c’est toujours agréable d’être lu et vous êtes de plus en plus nombreux (+ de 1 000 par mois en, moyenne). N’hésitez pas à commenter, c’est aussi une place de débats. Et surtout, merci de partager si vous soutenez nos réflexions ou recherches.

Pascal SIMOENS, docteur, architecte et urbaniste, data Scientist. Expert Smart Cities. J’ai commencé ma vie en construisant des villes en Lego, j’en ai fait mon métier. Geek invétéré, aujourd’hui je joins mes passions du numérique et de la ville au travers d’une expertise smart Cities et smart-buildings en travaillant en bureau d’étude (Poly-Tech Engineering) et j’enseigne cette même expertise à l’UMONS et l’ULB.

This post is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License.  


[1] Le 13 juin 2024, la consommation d’électricité à Paris était de 2115120 kWh, soit environ 10,1 kWh par habitant., source RTE

Laisser un commentaire