L'IA n'est plus bloquée par son code. Elle est bloquée par le béton, les transformateurs et l'eau potable. En avril 2026, près de la moitié des data centers américains planifiés ont été annulés ou reportés, les hyperscalers installent des groupes électrogènes sur site, et Elon Musk annonce vouloir envoyer l'essentiel de ses futurs serveurs en orbite. Derrière les 650 milliards de dollars d'investissement annoncés cette année, le mur physique est déjà atteint. Décryptage sans discours marketing.

1. Le mur du réseau électrique

Sur les 12 GW de capacité data center planifiés aux États-Unis pour 2026, seuls 5 GW sont en construction active. Le reste — près de 58 % — est gelé, annulé ou reporté sine die. Le problème n'est ni la demande, ni le capital : les deux dépassent les anticipations. Le blocage est ailleurs.

Schéma comparant les 12 GW de data centers IA planifiés aux États-Unis en 2026 aux 5 GW effectivement en construction, montrant un écart de 58 % lié aux limites du réseau électrique.
Planifié vs construit — l'écart n'est pas commercial, il est physique

Sources : Tom's Hardware, Tech Insider, European Business Magazine.

Un data center d'entraînement IA moderne consomme entre 100 et 300 MW — l'équivalent d'une ville moyenne. On peut le construire en moins de 18 mois. Mais l'infrastructure électrique qui doit l'alimenter prend jusqu'à cinq ans à déployer. Cette asymétrie suffit à expliquer toute la vague d'annulations.

Le détail technique qui bloque tout : les transformateurs haute tension. Avant 2020, leur délai de livraison était de 24 à 30 mois. Aujourd'hui, les contrats signent à cinq ans de délai. Même problème sur les disjoncteurs, les batteries et les connexions au réseau national. La chaîne d'approvisionnement électrique, planifiée pour la croissance des années 2010, n'encaisse pas la courbe IA des années 2020.

Ce que font les hyperscalers en réponse

Microsoft a annoncé 80 milliards de dollars d'investissement IA en 2026, puis a discrètement ralenti. L'entreprise court après des sites raccordés au gaz naturel au Texas et en West Virginia (Data Center Frontier).

Meta et xAI installent des groupes électrogènes au gaz directement sur site, pour ne plus dépendre du réseau (Tom's Hardware). Cette solution marche à court terme. À moyen terme, elle transforme les data centers IA en plus gros émetteurs de CO₂ de leur région, et rend caduques les engagements carbone des entreprises qui les hébergent.

Le paradoxe n'est pas résolu. Il est déplacé du réseau vers l'atmosphère.

2. Le mur de l'eau

Un data center IA de 100 MW consomme entre 0,5 et 2,5 millions de gallons d'eau par jour, selon le climat local et la technologie de refroidissement (EESI). Les très grands sites atteignent 5 millions de gallons, l'équivalent de la consommation quotidienne d'une ville de 10 000 à 50 000 habitants.

Schéma comparatif de la consommation quotidienne d'eau : data center IA 100 MW à 2,5 millions de gallons, gros site IA à 5 millions de gallons, et Google sur une année à 24 227 mégalitres en 2023.
L'eau évaporée pour refroidir les GPUs en 2026

Sources : EESI, The Register, IEEE Spectrum, Google Sustainability Report 2023.

Google a consommé 24 227 mégalitres d'eau en 2023, soit trois fois la consommation de Microsoft, en croissance de 17 % par an. À ce rythme, les projections du Department of Energy américain prévoient qu'à horizon 2030 les data centers auront besoin de 697 millions à 1,45 milliard de gallons d'eau supplémentaires par jour. À titre de comparaison, la ville de New York entière distribue environ 1 milliard de gallons par jour.

Ce n'est pas l'eau en soi qui pose problème — c'est l'eau potable, prélevée localement, évaporée. Les data centers s'installent là où le foncier est bon marché et le solaire disponible, c'est-à-dire souvent en zone aride (Arizona, Texas, Espagne). Ils entrent en concurrence directe avec l'agriculture et l'eau potable urbaine.

La promesse zero-water et son réalisme

Les hyperscalers annoncent la bascule vers le zero-water cooling (systèmes fermés, refroidissement liquide sur puce, free cooling atmosphérique) comme standard fin 2027. Google et Microsoft ont promis d'être water positive d'ici 2030 — c'est-à-dire de restituer plus d'eau que consommée.

L'engagement est réel. L'ampleur du défi aussi : le parc existant est massivement dépendant du refroidissement évaporatif. La transition coûte cher, prend du temps, et les nouveaux sites IA consomment encore davantage pendant la période de bascule.

3. Les 650 milliards de dollars qui ne construisent plus

Alphabet, Amazon, Meta et Microsoft ont annoncé un total cumulé de plus de 650 milliards de dollars d'investissement en infrastructure IA pour 2026 (Data Center Knowledge). Ce chiffre ne reflète pas ce qui sera réellement dépensé en construction. Il reflète ce qui sera engagé, en incluant l'achat de terrains, les pré-réservations de GPUs Nvidia, les contrats de fourniture énergétique de long terme et les options sur des sites non encore raccordés.

Au rythme actuel de raccordement au réseau, une part significative de ces 650 milliards est bloquée en amont de toute construction. C'est cette inadéquation entre capital disponible et infrastructure livrable qui fait germer des solutions « hors cadre » comme Terafab.

4. Terafab : la fuite en avant spatiale

Le 21 mars 2026, Elon Musk a annoncé à Austin le lancement de Terafab (parfois orthographié Terrafab), une co-entreprise Tesla-SpaceX-xAI de 20 à 25 milliards de dollars. L'objectif affiché : produire un térawatt de compute IA par an, dont 80 % déployés en orbite, alimentés par des panneaux solaires spatiaux lancés via Starship (Teslarati, Environment+Energy Leader).

Répartition cible du projet Terafab : 20 % de compute IA sur Terre pour les usages classiques, 80 % en orbite alimentés par énergie solaire spatiale.
Terafab — 80 % en orbite pour contourner les limites terrestres

Sources : Electrek, Teslarati, Energy Digital — mars 2026.

Le site pilote est prévu sur le campus Nord de Giga Texas. Objectif à terme : 1 million de wafer starts par mois, 100 à 200 milliards de puces IA et mémoire par an.

Lire Terafab comme une avancée technologique serait naïf. Lire Terafab comme l'aveu qu'on ne peut plus construire de data centers IA sur Terre au rythme voulu est plus instructif. L'orbite devient attractive pour une raison simple : pas de permis de construire, pas de raccordement EDF, pas d'ARS qui contrôle la consommation d'eau. Le vide est moins réglementé.

La faisabilité technique reste à démontrer. L'énergie solaire spatiale nécessite une transmission par faisceau micro-ondes vers la Terre ou un usage sur place, et aucune mission opérationnelle à cette échelle n'existe aujourd'hui. Electrek qualifie l'annonce de « reek of desperation » — ça sent le désespoir — et la remarque est lucide.

5. Ce que ça signifie concrètement

Trois ordres de grandeur Une requête Claude ou GPT courante consomme environ 2 à 3 Wh d'énergie. Une recherche Google classique : 0,3 Wh. Une requête image ou vidéo IA : entre 50 et 300 Wh. Multipliez par le volume mondial de requêtes et vous obtenez l'équivalent de la consommation électrique d'un petit pays. Source : pouvoirs publics américains (Department of Energy), Lawrence Berkeley National Laboratory, analyses Nature Climate Change.

Pour une entreprise qui déploie de l'IA

Le coût énergétique par requête est aujourd'hui sous-précisé par les fournisseurs, et la pression va croître. Deux axes de discipline deviennent critiques : utiliser le modèle le plus petit qui fait le job (Haiku plutôt qu'Opus quand c'est possible), et exploiter le prompt caching qui réduit la facture et l'empreinte énergétique de 90 % sur les contextes répétés.

Pour un citoyen

Les data centers ne sont plus une infrastructure abstraite. Ils entrent en concurrence avec votre eau potable, votre foncier local et la stabilité de votre réseau électrique. L'IA a une empreinte matérielle. Le discours sur la « dematerialization » du numérique est une fiction plaisante.

Pour un décideur public

Les engagements carbone et hydriques des hyperscalers sont volontaires et non contraignants. L'Europe commence à réglementer via l'Energy Efficiency Directive, les États-Unis laissent largement faire. Le décalage réglementaire va structurer la géographie des futurs déploiements.

Conclusion

L'IA a rencontré son plafond de verre physique. Pas celui de l'algorithme, ni celui du capital. Celui du béton, du cuivre et de l'eau. En 2026, construire un data center va plus vite que construire la ligne électrique qui doit l'alimenter, extraire l'eau qui doit le refroidir et obtenir le permis qui autorise les deux.

Les réponses publiques sont encore en retard. Les réponses privées tiennent en deux stratégies : installer des centrales au gaz sur site pour court-circuiter le réseau, ou partir en orbite pour contourner la Terre elle-même. Les deux ont l'avantage d'être sincères sur l'impasse actuelle. Aucune n'est sérieusement soutenable à l'échelle décennale.

La question que personne ne pose ouvertement : faut-il déployer partout toutes les capacités IA qu'il est possible de déployer, ou commencer à trier les usages en fonction de leur utilité réelle ? C'est le vrai débat des deux prochaines années.