Entre novembre 2025 et avril 2026, l'industrie de l'intelligence artificielle a vu se succéder le départ public d'un de ses pères fondateurs, l'ouverture d'enquêtes formelles européennes contre Grok, l'annonce d'une fonderie verticale à 25 milliards de dollars, l'exit ban administratif de deux fondateurs chinois, une cadence frontier hebdomadaire en avril, et la chute du coût d'inférence d'un facteur cumulé de mille en dix-huit mois. Mises bout à bout, ces nouvelles racontent autre chose que ce que chacune raconte séparément. Le paradigme dominant se fissure en silence, pendant que le récit officiel continue de monter en volume.
Sommaire du dossier
1. La chronologie qu'aucun média n'a recomposée
Onze novembre 2025. TechCrunch publie l'information : Yann LeCun, chief AI scientist de Meta, prépare son départ. CNBC le confirme le 19 novembre. Meta a passé l'année à débourser des centaines de millions pour recruter ou retenir des chercheurs frontier dans la guerre des talents lancée par Mark Zuckerberg. Pas réussi à retenir celui qui détient un Turing Award et la paternité du deep learning convolutionnel. La sortie est publiquement amère. LeCun déclare à The Decoder : « You certainly don't tell a researcher like me what to do. »
Vingt-deux janvier 2026. MIT Technology Review publie le portrait d'AMI Labs, présentée comme le pari contrarian de LeCun contre les LLM. Société officiellement fondée fin 2025, Alexandre LeBrun CEO, LeCun executive chair. Le lab est encore en mode discret, bureau Paris.
Dix-neuf janvier 2026. La Commission européenne ouvre une procédure formelle contre X au titre du Digital Services Act, à propos de la génération par Grok de contenus sexualisés impliquant femmes et mineurs. Ofcom suit au Royaume-Uni. Une note RAND publiée le 14 février qualifie la situation de regulatory reckoning pour Elon Musk. À cette date, vendre Grok dans une banque européenne, dans une assurance santé, dans une administration publique, devient un risque réputationnel que les directions juridiques signalent.
Février 2026. SpaceX absorbe xAI dans une fusion valorisée à 1,25 trillion de dollars. Le geste consolide les actifs Musk : satellites Starlink, fusées, datacenters, modèles Grok, supercomputer Colossus de Memphis, et bientôt fonderie. À l'époque, le mouvement est compris comme un repositionnement défensif. Six semaines plus tard, on découvre l'ambition complète.
Sept mars 2026. Bloomberg rapporte que plus de cent employés de Manus, startup d'agents IA fondée par les Chinois Xiao Hong et Ji Yichao, ont été transférés au bureau Meta de Singapour début mars. Manus a passé l'année 2025 à se relocaliser hors de Chine continentale.
Neuf-dix mars 2026. AMI Labs annonce la clôture de sa seed à 1,03 milliard de dollars, valorisation pre-money 3,5 milliards. Une des plus grosses seed jamais bouclées dans le monde. Co-lead du tour : Cathay Innovation (France), Greycroft (USA), Hiro Capital (UK), HV Capital (Allemagne), Bezos Expeditions (USA). Investisseurs personnels : Eric Schmidt, Jim Breyer, Mark Cuban, Mark Leslie, Tim Berners-Lee, Xavier Niel.
Vingt-et-un mars 2026. Elon Musk monte sur scène à l'ancienne centrale Seaholm d'Austin et annonce Terafab. Joint venture Tesla + SpaceX + xAI pour bâtir une fonderie de semiconducteurs verticalement intégrée. 25 milliards de dollars. Process 2 nm visé. 100 000 wafer starts par mois. 1 terawatt de compute IA produit par an. Le détail que personne ne reprend dans la presse française : Musk indique que 80 % de la capacité Terafab sera dédiée à des satellites IA en orbite, contre 20 % pour des applications terrestres.
Vingt-cinq mars 2026. Washington Post, CNBC et TechCrunch rapportent simultanément que Xiao Hong et Ji Yichao sont interdits de quitter la Chine continentale. Pékin invoque les Regulations on Technology Import and Export Administration — la TIETA — pour examiner si la propriété intellectuelle de l'agent IA Manus a été transférée à Singapour sans les autorisations requises.
Sept avril 2026. Anthropic publie Claude Mythos Preview. Saut benchmark sur SWE-Bench, GPQA, CyberGym. Dario Amodei prononce la phrase qui fera tourner les commentaires des semaines suivantes : Claude pourrait, dans les versions à venir, ressentir quelque chose proche d'une émotion. La phrase n'est pas anodine. Elle est load-bearing dans le récit AGI qui justifie les valorisations Anthropic. Voir notre analyse Claude Mythos : la première AGI ?.
Sept avril 2026. Intel signe officiellement comme foundry partner principal de Terafab. TechCrunch, Tom's Hardware, Bloomberg couvrent la nouvelle. Pendant dix ans, Intel avait perdu la course du fab face à TSMC. Le retour par la porte de Musk recompose la chaîne de valeur des semiconducteurs.
Vingt-deux avril 2026. Google DeepMind sort Gemini Robotics-ER 1.6, modèle reasoning-first avec capacités d'embodied reasoning amplifiées. Le partenariat avec Apptronik pour les humanoïdes Apollo est étendu. Une version on-device sort pour les déploiements robots déconnectés du cloud.
Vingt-trois avril 2026. OpenAI publie GPT-5.5. Le saut benchmark est plus modeste que GPT-5 vs GPT-4 — relevé par Ethan Mollick, Dan Shipper, Simon Willison. Voir notre test détaillé de GPT-5.5. Le même jour, Musk confirme à Austin l'usage du process Intel 14 angstroms pour Terafab.
Vingt-trois avril 2026. À Google Cloud Next 2026, Google et NVIDIA annoncent l'infrastructure A5X propulsée par les systèmes Vera Rubin NVL72. Promesse : 10 fois moins cher par token en inférence, 10 fois plus de throughput par mégawatt, scaling jusqu'à 80 000 GPUs Rubin par site et 960 000 GPUs en cluster multi-sites. Plan d'investissement Google AI infra : 185 milliards de dollars. Détail glissé dans le communiqué et ignoré par la presse française : OpenAI fait tourner ChatGPT sur des instances Google Cloud GB200 et GB300.
Vingt-quatre avril 2026. Sifted, Euronews, Investing.com rapportent que xAI a tenu des discussions exploratoires avec Mistral et Cursor pour une triple alliance contre Anthropic et OpenAI sur le coding et les agents. Le même jour, DeepSeek V4 est publié. Sur certaines tâches, le pricing API du modèle chinois open source tourne autour de cent fois moins cher que GPT-5.5. Voir notre analyse DeepSeek V4.
Sources : TechCrunch · Bloomberg · Washington Post · CNBC · MIT Technology Review · Sifted · Euronews · WIPO 2025
Cette chronologie de six mois n'a jamais été agrégée par un seul article. La presse spécialisée traite chaque épisode séparément. C'est l'agrégation qui produit le sens. L'industrie IA est entrée dans une période de fission. Les axes qui la stabilisaient depuis 2022 se décomposent en plusieurs trajectoires non-réductibles.
2. Le pari LeCun contre le scaling
LeCun n'est pas parti de Meta sur un désaccord stratégique. Il est parti sur un désaccord scientifique fondamental sur ce qu'est l'intelligence et comment on la construit. La distinction compte. Un désaccord stratégique se règle par la gouvernance ou le partenariat. Un désaccord scientifique se règle par cinq à dix ans de recherche et ne peut pas être tranché par les détenteurs actuels du pouvoir industriel.
Sa thèse, défendue publiquement depuis 2022 et capitalisée à 1,03 milliard de dollars : les grands modèles de langage ne raisonnent pas, ils prédisent. La phrase semble triviale. Ses conséquences ne le sont pas.
Halluciner n'est pas un bug des LLM. C'est leur mode normal de fonctionnement. Quand un modèle produit une réponse fausse mais grammaticalement plausible, il fait exactement ce qu'il a été entraîné à faire : prédire la suite la plus probable d'un texte donné, conditionnée par sa distribution d'entraînement. Aucune quantité de scaling ne change la nature de cette prédiction. Aucun ajout de Reinforcement Learning from Human Feedback ne produit du raisonnement causal. Aucune intégration d'outils externes ne donne à l'IA un modèle interne du monde.
Pour qu'une intelligence artificielle raisonne au sens fort, dit LeCun, il lui faut pouvoir simuler mentalement des trajectoires : si je fais X, alors Y se produit, alors je peux faire Z. Cette capacité de simulation suppose un substrat différent du texte. Un modèle interne du monde physique, où les objets ont des propriétés persistantes, où les actions ont des conséquences prévisibles, où la causalité fonctionne. Le langage humain ne contient pas ce substrat. Il en parle, il l'évoque, il le décrit. Il ne l'incarne pas. Un LLM entraîné sur le texte du monde apprend une cartographie linguistique du monde, pas le monde lui-même.
Saining Xie, Chief Science Officer d'AMI Labs, sur les world models et la sortie du paradigme LLM · YouTube, mars 2026
Si l'architecture tient ses promesses, deux choses changent.
D'abord, la nature des données. Le web textuel humain, qu'on a presque épuisé pour l'entraînement des LLM frontier, devient secondaire. La vraie réserve devient le flux vidéo de la planète, qui est ordres de grandeur plus volumineux que tout corpus textuel disponible. Si LeCun a raison, on n'a pas commencé à entraîner sérieusement.
Ensuite, l'économie sous-jacente. Les LLM frontier sont devenus des actifs capex. Le moat des leaders du secteur est désormais leur capacité à brûler des milliards en compute pour entraîner des modèles toujours plus grands. La barrière à l'entrée se chiffre en dizaines de milliards. Si V-JEPA permet à des modèles plus petits, entraînés sur de la vidéo plus accessible, de produire du raisonnement spatial et causal sans un million de GPUs, alors la barrière capex disparaît et le marché frontier redevient ouvert.
La présence physique parisienne est une réalité opérationnelle. La propriété économique est globalisée.Otium · Q1 2026
C'est ce que les investisseurs d'AMI Labs ont compris. Le tour de table raconte ce que la communication française autour de la levée a tu : les capitaux qui financent LeCun sont majoritairement américains. Plus précisément, ce sont des barons de la Big Tech américaine qui parient via lui contre d'autres entreprises américaines.
Bezos Expeditions investit. Schmidt, ex-CEO de Google, investit. Breyer, premier investisseur historique de Facebook, investit. Cuban investit. Greycroft, l'un des fonds VC les plus exposés à la frontier US, investit. Berners-Lee participe à titre individuel. Côté européen, Cathay Innovation, HV Capital, Hiro Capital, Niel à titre personnel. La part européenne est réelle. Elle est minoritaire.
Cela ne signifie pas que la levée d'AMI Labs n'est pas un événement européen majeur. Elle l'est, par ses effets opérationnels : recrutement en France, charges sociales en France, écosystème Paris-Montréal-New York-Singapour qui rayonne autour de Paris. Cela signifie que la propriété économique de l'aventure est globalisée et largement américaine. Si AMI Labs réussit, la valorisation revient majoritairement à des actionnaires américains. Si une offre d'acquisition arrive de Microsoft, Anthropic ou Google dans 36 mois, le board l'examine. Si pour des raisons fiscales ou réglementaires il devient avantageux de déplacer le siège, LeCun ne peut pas s'y opposer seul.
Cette tension doit être nommée parce qu'elle révèle un fait que ni la presse économique française ni Bercy ne veulent formuler : il n'existe pas, en 2026, de véhicule d'investissement européen capable d'écrire un chèque de 250 millions de dollars sur une seed deep tech. L'Europe n'a pas la doctrine, n'a pas les fonds, n'a pas le précédent. Niel met une fraction. Cathay Innovation met une fraction. L'écart se comble avec du capital américain. LeCun a fait ce choix lucidement.
Le pari LeCun, c'est l'aile critique du paradigme dominant qui prend la forme d'une entreprise commerciale. Elle est financée par les architectes mêmes de ce paradigme, à titre de couverture. Il faut le dire sans détour : ce n'est ni un acte souverain européen, ni un retournement idéologique américain. C'est de la diversification de portefeuille à l'échelle des milliardaires.
3. La bascule silencieuse de Google
Pendant que la presse spécialisée commente chaque sortie LLM frontier, Google DeepMind avance sur un terrain dont presque personne ne parle : la robotique embodied. La progression est régulière, silencieuse, méthodique.
Mars 2025, première Gemini Robotics. Premier modèle vision-language-action à intégrer les actions physiques comme nouvelle modalité de sortie. Le modèle peut directement contrôler des bras robotiques, des plateformes bi-arm comme ALOHA et Bi-arm Franka, et des humanoïdes via le partenariat Apptronik (humanoïde Apollo). Vingt-deux avril 2026, Gemini Robotics-ER 1.6 sort. Modèle reasoning-first avec capacités spatiales étendues. Une version on-device permet de faire tourner les modèles localement sur des robots déconnectés.
Ce qui est en jeu n'est pas un produit secondaire. C'est une stratégie d'incarnation qui sort la bataille IA du datacenter pour la déplacer dans le monde physique. Et c'est précisément là que le brevet redevient bloquant.
Sur le LLM, le brevet logiciel est devenu un instrument faible. Anthropic et OpenAI préfèrent le secret commercial. Google publie ses architectures (transformer, MoE) parce que le moat est ailleurs. La Chine sature les dépôts, mais 96 % des brevets chinois ne sont pas internationalisés et restent défensifs. La propriété intellectuelle LLM est devenue un théâtre.
Sur la robotique, l'équation change. Capteurs (LiDAR, profondeur), actionneurs (moteurs spécialisés, articulations), perception 3D (algorithmes de SLAM, reconstruction volumétrique), planification spatiale (motion planning sous contraintes), interfaces homme-robot. Autant de domaines où le brevet matériel reprend du sens, où le coût d'évitement est élevé, et où la concurrence chinoise est moins développée qu'en software pur. Google patente massivement Gemini Robotics et ses extensions.
L'autre dimension du pari Google, c'est l'intégration verticale par le haut. Google possède les datacenters (déjà bien avant le boom LLM), il possède désormais les modèles de frontier (Gemini), il avance sur l'infrastructure d'inférence avec NVIDIA (A5X), il construit la couche embodied (Gemini Robotics + Apptronik), il commence à articuler des partenariats hardware avec des constructeurs de robots. Aucun autre acteur n'empile autant de couches. OpenAI loue Microsoft Azure et n'a pas de robot. Anthropic loue AWS et n'a pas de robot. Meta a des datacenters mais pas de fonderie ni de plateforme robotique commerciale. Musk a presque tout, mais Terafab n'est pas en production avant 2027.
La presse a longtemps présenté Google comme en retard sur OpenAI dans la course LLM. C'était une lecture courte. DeepMind n'a jamais été conçu pour produire des chatbots. La maison est née pour faire AlphaGo, AlphaFold, GNoME — pour modéliser des systèmes complexes, pas pour servir des dialogues. La période 2022-2025 où Google semblait courir derrière a été pour DeepMind une parenthèse stratégique imposée par la pression publique sur les LLM. Gemini Robotics et A5X marquent le retour à la trajectoire historique, qui est celle d'un acteur infrastructurel et scientifique, pas d'un fournisseur de chatbots premium.
Si la prochaine décennie de l'IA passe par l'embodied — humanoïdes industriels, voitures autonomes, agents physiques, simulation prédictive du monde — Google détient déjà les briques que personne d'autre n'a empilées. Pendant que tout le monde court sur le LLM désincarné, un acteur prépare en silence l'IA incarnée. Voir notre analyse La guerre du compute : IA vs Gaming sur la trajectoire historique du compute.
4. Terafab et la sortie verticale de Musk
Vingt-et-un mars 2026 à Austin. Musk monte sur scène pour annoncer ce que la presse n'a pas vraiment compris : non pas une nouvelle usine, mais une stratégie de sortie totale du modèle de chaîne d'approvisionnement actuel de l'IA.
Pour comprendre la radicalité de Terafab, il faut rappeler la structure dominante du compute IA jusqu'en 2026. Toute la chaîne tient sur deux acteurs critiques : NVIDIA pour le design des GPUs frontier, TSMC pour leur fabrication à Taïwan. L'écosystème entier — OpenAI, Anthropic, Meta, Google, xAI lui-même via le supercomputer Colossus de Memphis, et même les hyperscalers chinois jusqu'à ce que les sanctions américaines les en privent — dépend de ces deux maillons. Cette dépendance est aussi un risque géopolitique majeur : si Taïwan tombe sous influence chinoise par invasion ou par pression diplomatique, la chaîne mondiale s'effondre en quelques semaines.
Terafab dit explicitement non à cette structure.
Le projet réunit Tesla, SpaceX, xAI, et désormais Intel comme foundry partner principal (signé le 7 avril 2026). 25 milliards de dollars sur le North Campus de Giga Texas, adjacent à l'usine Tesla d'Austin. Process 2 nanomètres sur la technologie Intel 14 angstroms, 100 000 wafer starts par mois, capacité visée 1 terawatt de compute IA par an. Premiers produits : chips Tesla AI5 pour les véhicules et les humanoïdes Optimus, chips D3 pour les satellites IA orbitaux. Petite production en 2026, volume en 2027.
L'aspect industriel n'est qu'une partie de l'histoire. Trois sorties simultanées doivent être lues ensemble.
La sortie structurelle d'abord : Musk veut sa propre fonderie pour ne plus dépendre de NVIDIA-TSMC. Si Terafab tient ses promesses 2027, c'est la première sortie crédible de cet axe depuis sa formation au début des années 2000. Et elle est financée par celui qui possède déjà SpaceX, Tesla, Starlink et xAI fusionnés en une seule entité depuis février 2026.
Sortie stratégique ensuite : Musk vise l'intégration verticale la plus extrême tentée depuis Bell Labs ou Standard Oil. Design des chips (Tesla, xAI), fabrication (Terafab/Intel), datacenters terrestres (Memphis), satellites orbitaux (Starlink), modèles (Grok, possiblement Mistral via talks), produits et applications (Tesla, Optimus, Cursor en option à 60 milliards), distribution (X, Starlink). Si l'ensemble tient, c'est un acteur géopolitique privé qui dépasse plusieurs États en autonomie technologique.
Keynote Terafab du 21 mars 2026 à Austin · replay intégral SpaceX/Tesla · YouTube
C'est cette troisième sortie qui rend Terafab structurellement plus radical que les deux premières. Les autres acteurs cherchent à contrôler le terrain. Musk cherche à changer de plan d'existence pour le compute IA. Si la stratégie tient, elle pose une question géopolitique nouvelle pour laquelle aucun cadre légal international n'existe.
Et puis il y a Intel. Pendant dix ans, la maison américaine a perdu la course du fab. TSMC a pris le leadership process avec ses générations 5 nm puis 3 nm. Samsung a tenu péniblement. Intel s'est marginalisé, jusqu'à devoir admettre que ses propres chips étaient désormais fabriqués par TSMC. Terafab change la donne : Intel revient par la porte de Musk, et le 14 angstroms est leur process de prochaine génération. Si Terafab tient ses promesses 2027, Intel revient au centre du jeu. Si Terafab échoue, Intel y laisse sa dernière crédibilité de foundry de pointe.
Le pari est asymétrique pour Intel : tout à gagner, peu à perdre puisque l'alternative était une marginalisation lente. Pour Musk, le pari est gigantesque : 25 milliards engagés, calendrier 2027 serré, risques d'exécution multiples. L'asymétrie pour le secteur est plus forte encore. Si Terafab fonctionne, NVIDIA perd son monopole, TSMC perd son client le plus prestigieux après Apple, l'Europe perd le seul levier qu'elle avait (ASML, dont les machines EUV équipent autant Intel que TSMC), et la Chine voit la chaîne d'approvisionnement américaine se rapatrier hors de portée taïwanaise.
5. A5X et la commodification accélérée
Pendant que Musk tente la sortie verticale, NVIDIA opère une contre-attaque alliée. À Google Cloud Next 2026, le 23 avril, Google et NVIDIA annoncent ensemble l'infrastructure A5X propulsée par les systèmes rack-scale Vera Rubin NVL72.
Opening Keynote Google Cloud Next '26 · Sundar Pichai annonce A5X et le partenariat NVIDIA · 22-23 avril 2026
Les chiffres méritent qu'on s'y arrête. Dix fois moins cher par token en inférence que la génération précédente. Pour le même budget, un client peut désormais traiter dix fois plus de requêtes ou faire tourner dix fois plus de modèles. Dix fois plus de throughput de tokens par mégawatt. Le coût énergétique unitaire de l'inférence chute aussi d'un ordre de grandeur, avec des conséquences directes sur la rentabilité et l'empreinte carbone des LLM frontier. Scaling jusqu'à 80 000 GPUs Rubin par site et 960 000 en cluster multi-sites. Près d'un million de GPUs orchestrés simultanément. Première infrastructure « AI factory » à cette échelle. Le compute devient industriel comme l'est devenue l'électricité au XXe siècle.
Plan d'investissement Google pour cette infrastructure : 185 milliards de dollars. À ce niveau, on n'est plus dans une stratégie commerciale, on est dans un projet géostratégique national.
Sources : Google Cloud Next · NVIDIA Blog · TechCrunch · Bloomberg · Modern Diplomacy · WIPO 2025 · avril 2026
Quatre conséquences structurent la suite.
La première : NVIDIA n'est pas en train d'être détrôné. NVIDIA est en train d'absorber Google dans son sillage. Le schisme matériel décrit plus haut, où Musk + Intel se posent en alternative à NVIDIA-TSMC, est plus subtil qu'une opposition frontale. NVIDIA reste incontournable. Il fournit Google via A5X. Il fournit Colossus de Musk avec ses GPUs Hopper et Blackwell jusqu'à ce que Terafab tourne. La seule alternative crédible à NVIDIA en 2026, c'est Terafab en construction, encore loin de la production de volume. Et même Terafab reposera sur des GPUs de transition (peut-être issus de Tesla Dojo) avant que les chips D3 maison soient en série.
La deuxième, et c'est l'élément le plus sous-estimé : OpenAI fait tourner ChatGPT sur des instances Google Cloud GB200 et GB300. Le concurrent direct numéro un de Gemini paie Google pour faire tourner son produit phare. Microsoft Azure, malgré ses dizaines de milliards investis dans le partenariat OpenAI, n'a plus la capacité d'absorber seul la charge globale de ChatGPT. Google a remporté le contrat d'inférence d'OpenAI, en parallèle de sa concurrence frontale via Gemini.
Cela donne à Google une position que personne ne formule clairement. Il connaît les patterns de charge OpenAI, il observe en temps réel ce que ses clients enterprise consomment, il peut tarifer à sa convenance, et théoriquement il peut couper le service si la situation politique l'exige. Google est désormais le bailleur d'infrastructure de toute l'industrie LLM, y compris de ses concurrents directs. C'est exactement le rôle qu'AWS a joué pour le cloud généraliste entre 2010 et 2020. Sauf que Google ajoute deux couches qu'AWS n'a jamais eues : ses propres modèles frontier (Gemini), et la robotique embodied (Gemini Robotics). Trois niveaux empilés simultanément : infrastructure, modèle, application physique.
La troisième : la commodification de l'inférence accélère vertigineusement. Empilez les chiffres : DeepSeek V4, sorti le 24 avril 2026, casse les prix d'un facteur d'environ cent sur certaines tâches face à GPT-5.5. A5X annonce dix fois moins cher que la génération NVIDIA précédente. Sur 18 mois, en empilant ces ordres de grandeur, le coût d'inférence chute d'un facteur cumulé de l'ordre de mille depuis 2024. À ce rythme, l'inférence vaudra zéro. Ce n'est pas une formule. C'est une conséquence arithmétique de la trajectoire actuelle.
L'inférence vaudra zéro. Le moat se déplace vers la fabrication, la distribution, la verticale et la donnée propriétaire.Décryptage IA · Otium
La quatrième : si l'inférence est commodifiée, alors les valorisations actuelles d'OpenAI (autour de 500 milliards de dollars) et d'Anthropic (au-delà de 350 milliards) deviennent indéfendables sur la base des revenus d'API, qui constituent l'essentiel de leur chiffre d'affaires. Elles ne tiennent que si l'on croit à un saut qualitatif futur — l'AGI annoncée à 24-48 mois, qui débloquerait une rente immense. Si ce saut n'arrive pas, les valorisations sont gonflées d'un ordre de grandeur. La moitié de la capitalisation tech américaine 2025-2026 est adossée à une hypothèse scientifique non prouvée, et que les meilleurs chercheurs du domaine considèrent comme fausse.
Aucun PDG en poste, aucun directeur de la recherche sous stock-options, aucun fonds de pension exposé à Anthropic ne peut formuler ce diagnostic publiquement. LeCun le peut parce qu'il a un Turing Award, pas de dépendance financière, et qu'il vient de sortir. Sa parole devient le canari, et les barons de la Big Tech américaine le suivent en lui mettant un milliard pour couvrir leur portefeuille.
6. La doctrine chinoise, assemblage cohérent
Vingt-cinq mars 2026. Xiao Hong et Ji Yichao sont interdits de quitter la Chine continentale. Pékin invoque la TIETA pour examiner si la propriété intellectuelle de l'agent IA Manus a été transférée à Singapour sans les autorisations gouvernementales requises.
L'affaire mérite qu'on en explique la mécanique en détail, parce qu'elle révèle une doctrine que les médias occidentaux peinent à formuler.
Manus avait été fondée à Shenzhen en 2023. Son produit, un agent IA capable d'exécuter des tâches complexes en autonomie via des interactions web et application, avait connu une trajectoire de croissance spectaculaire en 2024-2025, atteignant 100 millions de dollars d'ARR fin 2025. La société a passé l'année 2025 à se relocaliser hors de Chine continentale dans un mouvement coordonné : transfert progressif du siège social vers Singapour, remplacement des investisseurs chinois historiques par des fonds VC américains, expatriation prudente de la propriété intellectuelle, embauche d'employés clés à Singapour. Ce Singapore washing, comme l'a appelé CNBC, visait à présenter Manus comme une société singapourienne pour rendre acceptable l'acquisition par Meta annoncée fin 2025 pour 2 milliards de dollars.
Début mars 2026, plus de cent employés Manus avaient déjà rejoint le bureau Meta de Singapour. La structure paraissait bouclée. Pékin est intervenue ensuite. La réponse opérationnelle a été l'exit ban des deux fondateurs. Ils sont libres de circuler en Chine continentale, mais ne peuvent pas voyager internationalement. L'intégration avec les équipes Meta globales est de fait paralysée. Les deux architectes du produit ne peuvent pas rejoindre les équipes d'ingénieurs censées intégrer Manus à l'écosystème Meta. Sans eux, Meta a acheté une coquille technique avec des employés mais sans les têtes.
Si l'IP est dans la tête, alors la tête est régulable comme l'IP.Doctrine implicite TIETA · lecture Otium
Cette intervention révèle une doctrine que les régimes libéraux occidentaux n'ont pas conceptuellement assimilée. À l'ère où le savoir-faire IA est concentré dans quelques têtes capables de reproduire un modèle et de le faire évoluer, l'humain devient un actif stratégique national. Plus important que le brevet, plus important que la société, plus important même que les pondérations d'un modèle déjà entraîné, qui peuvent être copiées ou volées. Bloquer Xiao Hong et Ji Yichao, c'est garder en Chine la capacité opérationnelle de refaire ce que Meta vient d'acheter.
Le droit américain considère le know-how comme une propriété portable de l'individu. Le droit européen aussi, avec quelques nuances pour les secrets commerciaux. La Chine, en intervenant administrativement sur la liberté de circulation au nom du contrôle des transferts de technologie, opère un retournement profond.
L'affaire Manus n'est pas isolée. Elle s'inscrit dans une doctrine cohérente assemblée patiemment depuis cinq ans, qui empile quatre leviers complémentaires.
Volume légal
Les chiffres WIPO 2024 sont éloquents. La Chine détient 74,2 % des brevets IA mondiaux. Sa part des dépôts est passée de 34,6 % en 2014 à 49,1 % en 2024. Sur la GenAI, la Chine a déposé environ 38 000 brevets entre 2014 et 2023, six fois plus que les États-Unis. Le grant ratio des brevets chinois est passé de 30 % en 2019 à 55 % en 2023, en croissance double-digit pendant quatre années consécutives. Ces chiffres sont régulièrement utilisés pour conclure que la Chine domine désormais la course à l'IA. Lecture courte.
Seulement 4 % des brevets chinois sont déposés dans une autre juridiction, contre 32 % pour les brevets américains. C'est un indicateur de dépôts massivement défensifs et locaux. Les brevets américains génèrent plus de 50 % des forward citations mondiales, contre une part bien plus faible pour les brevets chinois. Le Japon montre 6,26 citations par patent, la Chine bien moins. Sur la qualité signalée par les citations, les États-Unis restent largement devant. Le volume chinois est un instrument de saturation défensive, pas une preuve de leadership scientifique.
Talent humain
L'affaire Manus est le cas le plus visible, mais elle s'inscrit dans une tradition chinoise plus ancienne de contrôle des transferts de compétences stratégiques. La TIETA existe depuis 2001, mais son application aux startups IA est récente. Le signal est clair : à mesure que les LLM frontier deviennent un actif géostratégique, les ingénieurs qui savent les construire deviennent des ressources humaines régulées comme telles.
Open source comme arme
DeepSeek V4, publié le 24 avril 2026 sur les puces Huawei Ascend, n'est pas un acte communautaire, c'est un acte stratégique. En mettant en open source des modèles compétitifs avec OpenAI et Anthropic à un prix dérisoire, Pékin casse le pricing power américain et accélère la commodification de l'inférence frontier. C'est l'arme la plus efficace contre des entreprises américaines dont le moat repose sur le capex et la rente d'API. Llama suivait la même logique côté Meta, mais pour des raisons différentes. La Chine a institutionnalisé cette logique au niveau étatique.
Souveraineté hardware
DeepSeek V4 tourne sur Huawei. Les sanctions Biden puis Trump sur les exports de GPU NVIDIA ont forcé la Chine à développer une stack hardware autonome. Huawei Ascend, SMIC pour la fabrication, écosystème logiciel propriétaire. C'est imparfait, c'est en retard sur le top NVIDIA, mais c'est fonctionnel. Et ça libère la Chine d'un point de défaillance critique.
Mis ensemble, ces quatre leviers forment le seul arsenal IA cohérent au niveau mondial. Pendant que les médias français présentent la stratégie chinoise comme un retard à rattraper, Pékin assemble en silence un système intégré qui répond à la question géopolitique de fond : comment garder le contrôle d'une technologie stratégique quand ses créateurs peuvent partir, ses modèles peuvent être copiés, et son infrastructure peut être coupée par sanctions extérieures ?
Aucun gouvernement occidental n'a cette doctrine. Ni Washington, ni Bruxelles, ni Paris.
7. L'absorption européenne
L'Europe n'a pas un acteur IA frontier, elle en a deux, et ils sont contradictoires.
Mistral résiste à la frontier LLM. Fondée par Arthur Mensch, Guillaume Lample et Timothée Lacroix, la société est devenue le dernier modèle indépendant européen de niveau global compétitif avec OpenAI et Anthropic. Mistral Large 2, Mistral Small 3, et désormais les modèles d'agents Vibe pour le coding enterprise. Mistral a une marque européenne propre, un ancrage régulateur fort, des relations Bercy et Élysée stables, et zéro casserole DSA. C'est aussi pour cela que Mistral est aujourd'hui courtisée.
Avril 2026. Sifted, Euronews, Investing.com et plusieurs autres sources rapportent que xAI a tenu des discussions exploratoires avec Mistral et Cursor pour une triple alliance contre Anthropic et OpenAI sur le coding et les agents. Le contexte est précis. Anthropic Claude Code a atteint un run rate de 2,5 milliards de dollars avec 300 000 utilisateurs business. C'est devenu le segment enterprise IA le plus rentable et le plus dynamique. xAI est en retard. Grok Code Fast 1 plafonne à 70,8 % sur SWE-Bench Verified, et seulement sur le harness interne xAI, pas indépendant. Grok manque streaming + tool calls simultanés, manque audio, manque vidéo. xAI documente lui-même que Grok n'est pas une flagship générale.
Le schéma stratégique de l'alliance proposée est limpide. xAI/SpaceX apporte le compute massif (Colossus, et bientôt Terafab). Cursor apporte le produit dev-facing et les agent workflows, avec une option SpaceX à 60 milliards de dollars sur Cursor signée plus tôt dans l'année. Mistral apporte l'architecture frontier et le know-how inférence. Sans Mistral, le bloc est une boîte vide côté modèle, parce que Grok ne tiendra pas tête à Claude Sonnet 4.6 sur le coding entreprise.
Il y a une autre dimension à cette alliance, que les médias français n'ont pas formulée. Grok est sous enquête formelle de la Commission européenne au titre du DSA. Les révélations de début 2026 sur la génération par Grok de contenus sexualisés impliquant des mineurs ont déclenché une procédure formelle, suivie par Ofcom au Royaume-Uni. Plusieurs cabinets considèrent désormais Grok comme un risque réputationnel majeur dans tout environnement régulé. Une banque européenne ne peut pas signer Grok. Une assurance santé ne peut pas signer Grok. Une administration publique ne peut pas signer Grok.
Mistral, avec sa marque légitime, peut. Dans une alliance triple, Mistral devient la façade européenne que xAI utilise pour vendre en Europe ce que Grok ne peut plus vendre. Le compute reste à Memphis, le modèle peut être co-entraîné, mais le contrat client porte le tampon Mistral. Whitewashing géographique, sous une forme nouvelle. Personne ne formule cela en France parce que Mistral est sacralisée comme champion national. C'est la mécanique opérationnelle probable d'une alliance qui se signerait.
Le siphon de talents a déjà commencé. Devendra Chaplot, cofondateur de Mistral, a rejoint xAI en mars 2026 comme lead pretraining. Cursor a déjà commencé à entraîner ses modèles sur Colossus. Sans alliance officielle, Musk pioche un par un les architectes critiques de Mistral. Une alliance formaliserait et accélérerait ce qui se fait à bas bruit.
Le pari de Mistral est délicat. Refuser l'alliance, c'est rester sous-capitalisé face à Anthropic (>350 Md$) et OpenAI (~500 Md$), et risquer de plafonner technologiquement. Accepter l'alliance, c'est devenir une brique d'un dispositif américain et perdre la souveraineté technologique réelle, même si la souveraineté politique apparente est préservée.
À l'autre extrémité de l'écosystème européen, AMI Labs parie sur l'après-LLM. On l'a vu, son capital est majoritairement américain. Bezos, Schmidt, Breyer, Cuban, Greycroft. La présence physique parisienne est réelle, la propriété économique est globalisée et largement américaine.
Les deux paris européens — résister à la frontier (Mistral) et parier sur l'après (AMI Labs) — ont en commun d'être structurellement adossés à des capitaux américains qui décident in fine. Ce n'est pas l'Europe qui regarde, comme l'aurait suggéré une analyse paresseuse. C'est plus subtil et plus dur : l'Europe est en train d'être absorbée par fragments dans un écosystème américain qui se diversifie en finançant des paris contradictoires. Mistral est absorbé par xAI/Musk. AMI Labs est financé par les barons US. Sans véhicules d'investissement européens à hauteur de plusieurs milliards de seed, l'Europe peut produire des cerveaux, mais elle ne peut pas conserver le contrôle des entreprises qui les emploient.
L'Europe est scientifiquement présente, économiquement absorbée.Otium · lecture géopolitique 2026
8. La fin tranquille d'un paradigme
Synthèse Otium · agrégation des signaux Q1 2026
Les cinq fissures racontent ensemble plus que ce que chacune raconte séparément.
Le paradigme dominant depuis 2022, le scaling des grands modèles de langage entraînés sur du texte humain pour atteindre l'intelligence générale, atteint son sommet de visibilité au moment précis où ses meilleurs observateurs commencent à s'en désengager. La cadence accélère parce que les acteurs en course sont obligés par les valorisations qu'ils ont levées. Le récit officiel se durcit parce qu'il ne peut pas se permettre de fléchir avant les prochains tours de table. En sous-main, le capital, les fondateurs et les laboratoires se réallouent vers ce qui pourrait venir après.
LeCun part avec un milliard pour le post-LLM. Bezos, Schmidt et Breyer le suivent en couverture. Google bascule discrètement vers la robotique embodied tout en s'alliant à NVIDIA pour commodifier l'inférence. Musk construit Terafab pour avoir sa propre fonderie et ses propres satellites. NVIDIA absorbe Google avec A5X qui divise par dix le coût d'inférence. DeepSeek casse les prix d'un facteur cent. Pékin séquestre les cerveaux dont la valeur se mesure désormais en milliards. L'Europe se laisse absorber par fragments faute de véhicules d'investissement à la hauteur.
C'est la signature d'une transition de paradigme en cours, pas la signature d'une révolution achevée. L'aveu collectif que les LLM ne suffiront pas seuls à atteindre l'intelligence générale n'est pas encore public. Il sera public dans 12 à 24 mois, sous une forme qu'on ne peut pas prévoir précisément aujourd'hui.
Il y a quelque chose que je ne sais pas trancher dans ce dossier. La transition est lisible dans les flux — capitaux, talents, contrats — mais elle n'est pas encore lisible dans les bilans. Personne n'a publié de trimestre où les revenus d'API stagnent. Personne n'a montré qu'AMI Labs produisait un modèle qui marche. Terafab n'a pas commencé à sortir des wafers. Le diagnostic posé ici peut donc être faux. Il peut aussi être en avance d'un an ou deux sur ce que la presse économique nommera comme évidence dans son flash trimestriel de 2027.
Ce qui semble plus solide, c'est le fait observable : la communauté scientifique IA n'est plus alignée sur un seul paradigme. Les architectes des LLM placent leurs couvertures ailleurs. C'est cela qui change, et qui mérite d'être nommé maintenant — avant que la consolidation ne réécrive l'histoire dans le sens du gagnant, quel qu'il soit.
Cinq fissures, plusieurs trajectoires, des doctrines qui ne s'alignent plus. Le reste sera décidé dehors, dans la matérialité du compute et la matière des chercheurs.