Anthropic court trop vite pour s'offrir son propre compute. SpaceX lui loue les gigawatts qu'elle ne peut plus construire. Derrière l'apparent paradoxe — Elon Musk fournissant du compute au concurrent direct de son propre Grok — se dessine la séparation officielle de deux métiers qui ne tenaient encore qu'un seul nom : l'IA. D'un côté le modèle, de l'autre l'infrastructure. Le deal du 6 mai 2026 sur Colossus 1 est la première démonstration publique de la scission.
Photos : Wikimedia Commons (Royal Society, TechCrunch Disrupt 2019, TechCrunch Disrupt 2023).
1. Le fait
Mercredi 6 mai 2026, sur la scène de la conférence Code with Claude à San Francisco, Dario Amodei annonce un partenariat compute entre Anthropic et SpaceX. La capacité concernée : la totalité du data center Colossus 1 à Memphis, construit à l'origine par xAI pour entraîner Grok — environ 220 000 GPU NVIDIA (mix H100, H200, GB200) et plus de 300 mégawatts de puissance (communiqué xAI, Tom's Hardware, Al Jazeera).
Anthropic, propriété intellectuelle et modèles. SpaceX, propriétaire juridique de l'infrastructure depuis la fusion avec xAI (février 2026).
Trois précisions changent la lecture du deal.
D'abord, le propriétaire juridique est SpaceX, pas xAI. SpaceX a acquis xAI le 2 février 2026 dans une fusion all-stock (xAI valorisée 250 Mds $, SpaceX 1 000 Mds $, ensemble combiné 1,25 T $), avant de la dissoudre en division « SpaceXAI » le 7 mai (TechCrunch, TeslaNorth). Le bail Anthropic est signé avec SpaceX. Ce qui change tout : ce n'est pas un labo IA qui en finance un autre, c'est un opérateur d'infrastructure qui loue sa capacité au plus gros client disponible.
Ensuite, l'usage est l'inférence, pas l'entraînement. La capacité est dirigée vers Claude Pro, Claude Max, Team et Enterprise. L'entraînement de Claude reste chez Amazon et Google. Effets immédiats annoncés : doublement des rate limits de Claude Code, suppression de la baisse en « peak hours » pour les abonnés payants, hausse « considérable » des limites API Opus (The New Stack).
Enfin, le montant. La presse l'estime entre 4 milliards de dollars (Fortune) et 5 milliards par an (Latent Space). Aucun chiffre officiel. La durée contractuelle n'est pas publique non plus.
2. La bascule industrielle
Pour comprendre pourquoi ce deal existe, il faut accepter une bascule peu commentée dans les médias généralistes : Anthropic a dépassé OpenAI en revenu annualisé. Au printemps 2026, l'ARR d'Anthropic atteint environ 30 milliards de dollars (VentureBeat, PYMNTS), contre environ 24 milliards pour OpenAI (Sacra). Pour mesurer la dynamique : Anthropic était à 87 millions de dollars d'ARR en janvier 2024. Multiplication par 80 en douze mois.
Cette croissance se paye en compute. Les engagements d'Anthropic auprès des hyperscalers, cumulés, dépassent 300 milliards de dollars sur la décennie :
- Amazon — 13 milliards déjà versés depuis 2023, jusqu'à 20 milliards de milestone supplémentaires. En contrepartie, Anthropic s'engage à dépenser 100 milliards sur AWS sur 10 ans, sur puces Trainium2 et 3 (CNBC, TechCrunch).
- Google — 10 milliards immédiats, jusqu'à 30 milliards de milestone, contrat Google Cloud d'environ 200 milliards sur 5 ans, jusqu'à un million de TPU dédiés (CNBC).
- SpaceX — 4 à 5 milliards par an (estimation presse), 300 MW immédiats.
Anthropic est aujourd'hui l'unique frontier lab dépendant de trois fournisseurs compute simultanés, dont un concurrent indirect (Google avec Gemini) et un concurrent direct (SpaceX avec Grok). Aucun autre acteur n'a structuré son infrastructure de cette manière.
3. Le code, la cash cow qui force le deal
Pour comprendre pourquoi Anthropic accepte de louer 100 % de Colossus 1 au plus offrant — y compris à un acteur qui qualifiait l'entreprise de « maléfique » dix-huit mois plus tôt —, il faut regarder une donnée que la couverture mainstream du deal a passée sous silence. Claude Code représente à lui seul environ 2,5 milliards de dollars d'ARR au premier trimestre 2026, dont plus de la moitié en enterprise (Sacra). Le produit a atteint le milliard de dollars d'ARR en six mois post-lancement public — trajectoire SaaS la plus rapide jamais observée chez Anthropic (communiqué Anthropic, novembre 2025).
L'annonce du 6 mai en porte la confirmation indirecte. Le premier effet communiqué du partenariat SpaceX n'est pas une démo de capacité brute. C'est le doublement des rate limits Claude Code pour Pro, Max, Team et Enterprise. Vient ensuite la suppression du peak hours pour les abonnés grand public, puis la hausse des limites API Opus (communiqué officiel Anthropic, 6 mai 2026). L'ordre n'est pas accidentel : il révèle où le compute frais part en priorité.
Le coding agent n'est pas qu'une cash cow propre à Anthropic. C'est devenu en 2026 le segment IA générative le plus dense en ARR par GPU consommé, tous acteurs confondus :
- Cursor (Anysphere) — 100 M$ ARR en janvier 2025 puis 500 M$ en juin, 1 Md$ fin 2025, 2 Md$ en février 2026. Levée en cours de 2 Md$ à une valorisation de 50 Md$, projection interne supérieure à 6 Md$ d'ARR fin 2026 (TechCrunch).
- GitHub Copilot — 4,7 millions d'abonnés payants au Q2 FY26 (janvier 2026), en hausse de 75 % en glissement annuel.
- Replit — multiplié par 100 en un an, 250 M$ d'ARR atteints en mars 2026 (TechCrunch).
Quatre propriétés expliquent cette densité de rentabilité. L'utilisateur paie pour produire, pas pour s'amuser ou chercher, ce qui justifie un ARPU de 40 à 200 $/mois en individuel et 40 à 100 $/siège en enterprise, avec des contrats à sept chiffres. Le ROI est mesurable : un développeur chiffre directement le temps gagné, l'acheteur achète sans débat. La consommation tokens est dense : un agent qui ouvre un fichier, lit du contexte, propose une diff, attend feedback, ré-itère, brûle dix fois plus de tokens qu'une conversation chat moyenne. La friction de switch est élevée : changer d'outil dev demande de réapprendre des raccourcis, des conventions, un workflow.
Lecture du deal SpaceX–Anthropic à la lumière de cette donnée : Anthropic n'achète pas du compute pour des features cosmétiques. Elle achète de la capacité d'inférence pour servir la ligne où chaque heure de GPU se convertit directement en chiffre d'affaires enterprise récurrent. Le code paye l'infrastructure que SpaceX vient de mettre sur le marché.
4. Le vrai goulot
L'argent n'est plus la contrainte. Le capex IA des quatre principaux hyperscalers (Microsoft, Meta, Amazon, Google) atteindra entre 650 et 725 milliards de dollars en 2026, dont environ 75 % consacrés à l'IA, soit ~450 milliards (CreditSights via 24/7 Wall St, Introl). Microsoft seul prévoit 190 milliards de capex en 2026.
Commandes Blackwell passées en 2026 = livraisons attendues en 2027. La pénurie n'est plus financière, elle est physique.
C'est ce qui explique l'événement le plus important du calendrier OpenAI/Microsoft en 2026. En avril, OpenAI a obtenu la levée de son exclusivité cloud avec Microsoft, un plafond sur le revenue share et l'extension de la licence IP jusqu'en 2032 (CNBC). Microsoft, valorisé plus de 3 000 milliards, ne fournit plus seul assez de compute au leader historique. Anthropic le constate aussi : Fortune documente en avril 2026 une dégradation perceptible de la performance Claude, attribuée par plusieurs utilisateurs à la pénurie de compute (Fortune, 14 avril 2026).
La bataille IA en 2026 n'est plus une bataille de modèles. Elle est une bataille de gigawatts. Les modèles s'égalent vite. Les centrales électriques pas.
5. L'échiquier
Trois acteurs, trois positions structurellement différentes.
OpenAI : produit fort, infrastructure fragilisée. Anthropic : produit fort, infrastructure empruntée. SpaceXAI : produit en échec, infrastructure dominante.
OpenAI. Produit le plus reconnu publiquement (ChatGPT, environ 65 % des revenus). Valorisation 852 milliards de dollars après round mars 2026. Exclusivité compute Microsoft levée. Doit désormais sourcer du compute ailleurs. Produit fort, infrastructure fragilisée.
Anthropic. Produit en plus forte croissance (ARR 30 Mds $, multiplication par 80 en un an). Dépendance compute totale envers des hyperscalers extérieurs, désormais incluant SpaceX. Produit fort, infrastructure empruntée à trois concurrents.
SpaceXAI / Grok. Infrastructure dominante (Colossus 1 + Colossus 2, plusieurs gigawatts annoncés à terme). Produit en échec commercial : Q3 2025 à 107 millions de dollars de revenu trimestriel pour 1,46 milliard de perte sur le seul trimestre, burn estimé à 1 milliard par mois (Sacra). Produit en échec, infrastructure excédentaire, bascule de fait en infra-as-a-service.
Le deal SpaceX–Anthropic est la photo de ces trois positions. SpaceX monétise une capacité que Grok n'absorbe plus. Anthropic comble une pénurie qu'AWS et Google Cloud ne peuvent plus couvrir seuls. OpenAI assiste, sans Microsoft pour le couvrir entièrement, à un concurrent qui obtient ce qu'il cherche lui-même.
6. Le procès en arrière-plan
Au moment où le deal est annoncé, Elon Musk poursuit Sam Altman et OpenAI devant la cour fédérale d'Oakland. Le procès est en cours, semaine 3. Les claims restants après l'élimination de plusieurs autres en mai 2025 : breach of charitable trust et unjust enrichment (CNBC, Wikipedia Musk v. Altman). Musk demande la restitution jusqu'à 150 milliards de dollars vers la fondation non-profit d'OpenAI, et le retrait d'Altman et Brockman du board. Satya Nadella a témoigné le 11 mai, Sam Altman le 12 mai. Plaidoiries de clôture le 14 mai. Décision attendue dans la semaine suivante.
Deux faits à présenter sans surinterpréter.
Le grief de Musk porte spécifiquement sur la trajectoire d'OpenAI : statut non-profit (2015), création d'une filiale capped-profit (2019), passage en Public Benefit Corporation avec suppression du cap 100x (octobre 2025). Anthropic n'a jamais été non-profit — PBC depuis 2021 avec un Long-Term Benefit Trust comme mécanisme de mission lock. Le grief juridique de Musk ne s'applique pas à Anthropic. Financer Anthropic n'est donc pas une contradiction du procès contre OpenAI : c'est une attaque parallèle, sur un autre terrain.
Le calendrier. Annonce du deal le 6 mai, témoignage d'Altman le 12, plaidoiries le 14. Coïncidence ou coup de calendrier, l'effet est là : la presse a couvert le deal Anthropic–SpaceX pendant que les jurés écoutaient Altman défendre la trajectoire d'OpenAI.
7. Ce que ça change pour vous
Pour les opérateurs qui intègrent ces modèles dans un produit ou un workflow critique, quatre points pratiques.
Choisir un modèle, c'est désormais choisir une exposition compute. Claude vit sur AWS, Google Cloud et SpaceX. GPT vit sur Microsoft et désormais d'autres fournisseurs. Grok vit sur Colossus 2. Une coupure ou une dégradation sur l'une de ces couches affecte le service que vous consommez. Demandez à votre fournisseur de modèle la cartographie de son sourcing compute, et la redondance prévue.
Modélisez le risque de coupure non-technique. La clause « evil detector » annoncée par Elon Musk n'est probablement pas dans le contrat. Mais le précédent est posé publiquement : un fournisseur d'infrastructure peut justifier une coupure par des motifs subjectifs, unilatéraux, sans arbitre. Si votre dépendance à un modèle est forte, prévoyez le scénario « le fournisseur compute de mon fournisseur change d'avis ».
Suivez l'infrastructure et le modèle comme deux risques distincts. La dégradation Claude documentée en avril 2026 n'était pas un problème de modèle, c'était une crise de capacité. Un benchmark modèle ne la voit pas. Une supervision SLA non plus. Mettez en place des signaux de qualité de réponse en production, pas seulement des indicateurs d'uptime.
Anticipez les fenêtres de pénurie. Les commandes Blackwell de 2026 seront livrées en 2027. La pression sur les capacités d'inférence ne se résoudra pas dans les douze prochains mois. Les usages les plus consommateurs — génération longue, agents autonomes, code à grande échelle — seront les premiers exposés au rationnement, sous forme de hausses tarifaires, de limites plus strictes ou de dégradations silencieuses.
Le deal SpaceX–Anthropic n'est pas une réconciliation idéologique entre un Musk anti-woke et un Anthropic safety-first. Ce n'est pas davantage une trahison du procès contre OpenAI. C'est la confirmation publique qu'en 2026, le centre de gravité de l'industrie IA s'est déplacé du modèle vers l'infrastructure. Les acteurs qui comprennent cette bascule la traduisent en stratégie compute. Les autres continuent de regarder les benchmarks.