AH ! LA QUESTION DES BONNES VIEILLES BRIQUES… POUR RÉPONDRE AUX ATTENTES DE LA TECH’AI

Temps de lecture :  9 minutes
mots-clés : data center, construction, réseaux, électricité, mains-d’œuvre, territoire, IAG, IA
Nombre de pages « équivalent » : 4
Article rédigé avec l’aide de l’IA : oui

En bref : L’article aborde les défis matériels de l’intelligence artificielle, en soulignant que la croissance d’IA rencontre des obstacles liés à l’électricité, aux infrastructures et à la construction de data centers. Malgré l’énorme investissement de grandes entreprises, il existe une tension entre la vitesse d’innovation numérique et les contraintes physiques et logistiques de l’énergie, entraînant une reconfiguration nécessaire des territoires et de la gouvernance énergétique et du transit des données

Chers lecteurs, chères lectrices,
Chers abonné.e.s,

Introduction : L’IA face à ses limites matérielles

L’intelligence artificielle est souvent racontée comme une histoire de calcul, d’algorithmes et de puces. Pourtant, depuis 2024–2025, la réalité qui s’impose est beaucoup plus triviale : l’IA bute sur l’électricité, le béton, l’acier et les délais de chantier. Aux États-Unis comme en Europe, la promesse d’une croissance exponentielle du calcul rencontre une infrastructure physique qui, elle, évolue lentement, sous contraintes industrielles, énergétiques et humaines. La Startup Nation butte contre le conservatisme des métiers qui a construit et fait le monde.

Ce décalage marque peut-être un tournant : le passage d’un imaginaire numérique “immatériel” à une économie lourde du digital, comparable à celle de l’industrie ou des transports que nos régions ont connu il y a plus d’un siècle.

Aux États-Unis : quand l’IA se heurte au “mur électrique”

Aux États-Unis, le boom des data centers lié à l’IA générative a atteint une intensité inédite. Les grands acteurs du cloud et de l’IA (Microsoft, Google, Amazon, Meta) investissent simultanément des dizaines de milliards de dollars dans de nouvelles capacités. Mais un constat s’est imposé brutalement : la disponibilité de GPU ne suffit plus. On en a beaucoup discuté lors du dernier CES 2026 : toute la mémoire vive du monde est absorbée par les centres de données consacrés à l’IAG. Même les opérateurs dits « traditionnels », comme Lenovo, tirent la sonnette d’alarme. Nous vous conseillons d’ailleurs de bichonner votre portable cette année, car s’il venait à tomber en panne ou devait être remplacé, vous risquez de mettre une sacrée main dans le portefeuille… Dans certains cas, on parle de +40 à 60% du prix du marché 2025.

 Mais revenons à la construction des Data centers. La formule utilisée par Satya Nadella — “we have chips, but nowhere to plug them in” — résume le problème dans Tom’ Hardware le 2 novembre 2025. Le goulot d’étranglement n’est plus le silicium, mais la capacité électrique réellement raccordable, au bon endroit et au bon moment et lorsqu’il y a du courant (pour rappel, Microsoft a investi 20 milliards de dollars dans la centrale de Three Mile Island et la relance d’un des réacteurs arrêté suite à l’une des plus grandes catastrophe nucléaire civile du monde le 28 mars 1979 (40 years ago: Three Mile Island nuclear accident, CBS News, 2019)

Le CEO de Microsoft est explicite à ce sujet : « Je pense que dans ce cas particulier, il est impossible de prédire les cycles de l’offre et de la demande, n’est-ce pas ? La question est : quelle est la tendance à long terme ? La tendance à long terme est celle décrite par Sam (PDG d’OpenAI), à savoir qu’en fin de compte, le plus gros problème auquel nous sommes confrontés aujourd’hui n’est pas une surabondance de puissance de calcul, mais plutôt la puissance elle-même, c’est-à-dire la capacité à réaliser les constructions assez rapidement pour être à la hauteur de la puissance », a déclaré Satya dans le podcast. « Donc, si vous ne pouvez pas le faire, vous risquez de vous retrouver avec un tas de puces en stock que je ne peux pas brancher. En fait, c’est mon problème aujourd’hui. Ce n’est pas un problème d’approvisionnement en puces, c’est en fait le fait que je n’ai pas de boîtiers chauds à brancher. »

L’électricité devient la ressource critique

Les data centers représentent aujourd’hui environ 4 à 5 % de la consommation électrique américaine. Les projections indiquent un doublement potentiel d’ici la fin de la décennie. Cette croissance rapide met sous tension des réseaux conçus pour une progression beaucoup plus linéaire, surtout dans les régions déjà saturées (Virginie du Nord, Texas, Arizona, Midwest). Mais le problème n’est pas seulement celui de la production :
il est logistique et industriel.

  • Les délais de livraison des transformateurs haute puissance et des équipements de sous-station se comptent désormais en années.
  • Les files d’attente de raccordement s’allongent.
  • Les projets “prêts sur le papier” restent bloqués faute d’infrastructure amont.

La construction sous tension également

Cette contrainte énergétique se double d’une rupture classique offre/demande dans le secteur de la construction :

  • Pénurie de main-d’œuvre qualifiée (HVAC, électricité, commissioning),
  • Inflation des coûts,
  • Complexité croissante des chantiers,
  • Risques accrus lors des phases de mise en service.

Le data center, longtemps perçu comme un objet industriel répétitif, devient un ouvrage critique, où la moindre erreur a des conséquences financières majeures. Le chantier n’est plus un simple support du numérique : il en devient le facteur limitant. Cette situation pourrait bien être le talon d’Achille pour la bulle spéculative sur l’IA :  le temps long des constructions (Chronos) n’est absolument pas en phase avec le Kairos des évolutions technologiques et particulièrement logicielles. Ainsi, on a beau travailler sur un business plan à 3 ans, si notre capacité de le mettre en œuvre n’évolue pas d’ici 5 ans… vous êtes mort.

En Europe, les mêmes tensions sont présentes, mais avec certaines contraintes différentes.

En Europe, la dynamique est comparable, mais le cadre est plus contraint : densité urbaine, rareté foncière, règles d’aménagement, acceptabilité sociale : le data center n’est pas un objet neutre et le travail fait par l’intercommunale IDEA semble le démontrer.

Il faut comprendre que la Belgique est au cœur du plus grand hub mondial de transfert de données. C’est historiquement lié à 3 ou 4 places financières et les grands marchés historiques — Londres, Francfort, Amsterdam, Paris, Dublin — qui sont aujourd’hui confrontés à une double saturation : celle du foncier et celle du réseau électrique. Dans certaines zones, les délais de raccordement se projettent désormais à l’horizon 2030, voire au-delà. Nous en avons déjà parlé dans nos articles et nous pensons que les pouvoirs publics ne mesurent pas à quel point ce système est fragile. Aujourd’hui, les opérateurs sont poussés à diversifier leurs territoires en fonction des usages : d’une part, la Wallonie et la Belgique en général sont extraordinairement bien placées pour des data centers génériques en IA (les hubs), ensuite les data Edge, proches de leurs utilisateurs, s’installent et les data centers périphériques à l’échelle du continent moulinent les données dans un contexte plus favorable.

Cette situation pousse les opérateurs à :

  • Déplacer leurs projets vers des marchés secondaires,
  • Négocier des solutions énergétiques hybrides,
  • Repenser la localisation du calcul à l’échelle continentale.

L’Europe découvre que le cloud a une géographie, et que celle-ci dépend directement de la disponibilité électrique. Il semble qu’en Wallonie, cet enjeu d’interaction territoriale avec la donnée n’est pas encore intégré dans la pensée des acteurs du numérique, ou plutôt, ne remonte pas assez vite dans les têtes pensantes de la politique.

La congestion comme symptôme systémique

La congestion des réseaux n’est pas propre aux data centers : elle résulte de la convergence de plusieurs transitions simultanées — numérique, énergétique, industrielle, climatique.

Dans plusieurs pays (Pays-Bas, Royaume-Uni, Allemagne), les gestionnaires de réseau sont contraints de rationner, de prioriser, ou d’introduire des contrats flexibles. L’accès à l’électricité devient un objet politique, soumis à arbitrage.

Dans ce contexte, les data centers ne sont plus perçus uniquement comme des moteurs d’innovation, mais aussi comme des concurrents directs d’autres usages : logement, industrie, mobilité électrique.

Finalement, c’est un changement de paradigme : de l’IA abstraite à l’IA infrastructurelle

Ce qui se joue aujourd’hui dépasse la seule question des data centers. Nous assistons à une rématérialisation du numérique.

L’IA n’est plus seulement un logiciel :

  • Elle consomme de l’électricité en continu,
  • Mobilise des volumes considérables de matériaux,
  • Dépend de chaînes industrielles longues et fragiles,
  • S’inscrit dans des territoires précis.

Tout cela fait furieusement penser à la révolution industrielle… et la rupture actuelle révèle une tension fondamentale : la vitesse d’innovation du numérique est incompatible avec les inerties physiques des infrastructures. Aux États-Unis, cette tension se manifeste par des plafonds temporaires de croissance. En Europe, elle se traduit par une compétition territoriale et énergétique accrue.

Conclusion

L’époque où l’on pouvait penser l’IA comme un simple problème de calcul ou un objet dont la localisation importe peu est révolue. Elle est désormais une question d’aménagement du territoire, de réseau, de construction et de gouvernance énergétique. Ce changement de paradigme pourrait être décisif pour certains territoires, dont la Wallonie. Il oblige à sortir du récit abstrait de la « révolution numérique » pour entrer dans celui, plus inconfortable, des limites physiques, mais aussi de leurs opportunités. En effet, la Wallonie est bien au cœur d’un terril de données qui transitent en Europe et dans le monde.

En ce sens, la crise actuelle n’est pas un accident, mais un révélateur. L’IA n’échappera ni à la géographie, ni à l’énergie, ni aux contraintes matérielles. Elle devra, comme toute infrastructure majeure avant elle, négocier avec le réel. Certains ne s’y attendaient pas. Il n’est pas trop tard, mais l’horloge tourne vite comme un CPU de chez Nvidia.  

Bonne et belle journée à vous.

En complément de lecture :
Big Tech Is Spending More Than Ever on AI and It’s Still Not Enough, WSJ, Meghan Bobrowsky, 30 octobre 2025 > Silicon Valley’s biggest companies are already planning to pour $400 billion into artificial intelligence efforts this year. They all say it’s nowhere near enough.

Merci pour le suivi de notre blog-à-idées ou à réflexions, c’est toujours agréable d’être lu et vous êtes de plus en plus nombreux (+ de 1 000 par mois en, moyenne). N’hésitez pas à commenter, c’est aussi une place de débats. Et surtout, merci de partager/liker si vous soutenez nos réflexions ou recherches. C’est un véritable soutien de votre part et il est apprécié à sa juste valeur.

Dr. Pascal SIMOENS, Architecte et urbaniste, data Scientist.
J’ai commencé ma vie en construisant des villes en Lego, j’en ai fait mon métier. Geek invétéré, aujourd’hui je joins mes passions du numérique et de la ville au travers d’une expertise smart Cities et smart-buildings comme responsable » R&D au sein du groupe Pirnay (Charleroi-Bruxelles) et plus particulièrement de sa section S²Enginnering (smart & sustainable) . En même temps, j’enseigne cette expertise  et continue la recherche dans les domaines de l’IA, l’architecture et la réduction de l’entropie du processus constructif au sien de l’UMONS. Je représente également les universités d’Etat de la communauté Française au sein du Conseil National de l’Ordre des architectes et du Conseil francophone et germanophone.

This post is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License.  

Laisser un commentaire