Soixante-douze heures entre deux memos. Le 21 avril 2026, une note interne de Meta, révélée par Reuters, annonce le déploiement d'un logiciel de surveillance baptisé Model Capability Initiative sur les ordinateurs des employés américains du groupe. Objectif explicite : capturer clics, frappes clavier, mouvements de souris et captures d'écran pour entraîner les agents IA internes de Meta. Pas d'option de retrait. Le 23 avril, Meta annonce le licenciement de 8 000 personnes, soit 10 % de ses effectifs, plus la fermeture de 6 000 postes ouverts. Début des départs : 20 mai. Une réorganisation en pods AI-focused prend le relais, avec de nouveaux rôles : AI builder, AI pod lead, AI org lead. Pris isolément, chacun de ces deux événements est banal dans la tech américaine de 2026. Pris ensemble, ils dessinent un cycle inconnu jusqu'ici : les employés ont formé les agents qui vont les remplacer, sans avoir eu la possibilité de s'y soustraire. Cet article raconte la séquence, documente ce que le droit américain permet par contraste avec le droit européen, et tire les conclusions utiles pour un dirigeant de PME française qui observe.

1. La séquence en trente jours

Chronologie de la séquence Meta du 21 avril au 20 mai 2026 : activation du Model Capability Initiative, annonce des licenciements, réorganisation effective.
Trois dates, une boucle fermée

21 avril 2026 — Reuters publie le contenu d'une note interne Meta. Un logiciel va capturer les « mouvements de souris et les frappes clavier » sur les ordinateurs des salariés basés aux États-Unis, sur une liste de plusieurs centaines d'applications et de sites incluant Google, LinkedIn, Wikipedia, GitHub (Microsoft), Slack (Salesforce) et Atlassian. Le logiciel prend aussi « des captures d'écran occasionnelles pour le contexte ». La finalité déclarée est d'améliorer les modèles internes sur des tâches où ils peinent, explicitement citées : « le choix dans les menus déroulants et l'usage des raccourcis clavier ». L'enjeu plus large, confirmé par la note, est la construction d'agents IA capables d'exécuter des tâches de travail qualifié en autonomie. Aucune procédure d'opt-out n'est prévue.

23 avril 2026 — Meta annonce un plan social de 8 000 personnes. Cela représente 10 % des effectifs. L'entreprise ferme en parallèle 6 000 postes qu'elle n'a pas pourvus, portant à 14 000 les suppressions nettes de perspectives d'embauche. L'annonce insiste sur la réorganisation de l'entreprise autour des agents IA : les équipes sont reconfigurées en pods, des ingénieurs sont transférés depuis tout le groupe vers l'Applied AI Organization. Trois nouveaux intitulés de fonction apparaissent dans l'organigramme : AI builder, AI pod lead, AI org lead. Contexte financier : Meta a dépensé 72,2 milliards de dollars en CapEx IA en 2025, et prévoit de dépasser 115 milliards en 2026.

20 mai 2026 — début effectif des départs. Entre-temps, le Model Capability Initiative aura tourné un mois sur les postes des salariés, nourrissant le corpus d'entraînement des agents destinés à hériter des tâches libérées.

Ce que capture concrètement le Model Capability Initiative Selon la note Reuters et les confirmations TechCrunch / CNBC : toutes les frappes clavier sur applications et sites professionnels, toutes les positions et clics de souris, des captures d'écran périodiques, l'usage des raccourcis clavier, les séquences de menus déroulants. Pas les applications personnelles. Pas d'opt-out individuel. Le logiciel est préinstallé, il n'est pas désactivable côté utilisateur.

2. Pourquoi Meta fait ça

Mark Zuckerberg, fondateur et PDG de Meta Platforms
Mark Zuckerberg · CEO de Meta Platforms · source Wikimedia Commons

Mark Zuckerberg joue une partie lourde. Les 115 milliards de CapEx 2026 ne sont pas un effet d'annonce : ils correspondent à des engagements contractuels sur des datacenters, des puces Nvidia Blackwell, des contrats électricité de long terme. Meta est dans la course frontier face à OpenAI, Anthropic, Google et xAI, avec le désavantage de ne pas avoir de cloud propre (contrairement à Google et Microsoft) pour amortir l'investissement par de la revente B2B. Le seul modèle qui justifie 115 milliards annuels, c'est l'intégration des agents IA dans tous les produits Meta (Facebook, Instagram, WhatsApp, Threads, casques Quest, lunettes Ray-Ban) et la baisse du coût marginal par unité de travail intérieur.

La deuxième branche — la baisse du coût marginal de travail — passe par la constitution d'une matière première d'entraînement qui n'existe nulle part ailleurs : les traces complètes du travail quotidien de 60 000 ingénieurs, designers, product managers et juristes d'un des groupes tech les plus performants du monde. C'est ce que la Model Capability Initiative collecte. Les réseaux publics (Reddit, Stack Overflow, GitHub public) ont déjà été aspirés par les LLM de frontier depuis 2022-2023. Ce qui manque pour entraîner des agents opérationnels, ce sont les traces complètes de tâches effectuées, pas les résultats figés. Meta, avec son parc de 80 000 employés, possède cette matière. Il la convertit en corpus d'entraînement.

3. Ce que dit — et ne dit pas — le droit américain

La note interne de Meta n'est pas illégale aux États-Unis, ce qui est la première chose à comprendre avant tout jugement moral. Le droit fédéral américain ne prévoit aucune limite générale à la surveillance des salariés par leur employeur sur matériel professionnel. Certains États (Californie, New York, Connecticut) imposent une notification préalable par écrit, que Meta respecte via ses politiques internes. Mais aucune législation fédérale ne donne au salarié un droit de consentement individuel ou d'opt-out.

Ifeoma Ajunwa, professeure de droit à Yale et spécialiste de la surveillance algorithmique des travailleurs, a résumé la situation en une formule : « il n'y a pas de limite, au niveau fédéral américain, à la surveillance des salariés ». La disparé vient de loin. Depuis une dizaine d'années, les chauffeurs de livraison (Amazon, UPS), les conducteurs Uber, les travailleurs de l'économie de plateforme sont soumis à un tracking temps réel (itinéraires, vitesse, pauses, rendement) qui ne choque plus personne dans le cadre juridique américain. Ce que fait Meta en avril 2026, c'est étendre le régime qui pesait sur les cols bleus numériques aux cols blancs du siège californien.

En Europe, le même dispositif serait tout simplement inapplicable. Le RGPD impose un fondement juridique (base légale Article 6) et le respect des principes de minimisation et de proportionnalité. Le Code du travail français exige la consultation du CSE pour tout dispositif de surveillance et la notification individuelle préalable. La jurisprudence de la CNIL est sans ambiguïté sur la surveillance continue des claviers et souris : sanction probable dès le premier contrôle. L'AI Act européen, entré en application par paliers depuis 2024, classe les systèmes de surveillance alégorithmique des travailleurs en « haut risque » (Annexe III), impliquant audit de conformité, évaluation d'impact et registre obligatoire.

QuestionDroit US (fédéral)Droit EU / France
Consentement individuel requisNonOui (RGPD Article 6, sauf base légale spécifique)
Opt-out possibleNon généralementOui (droit d'opposition RGPD Article 21)
Consultation instances représentativesNonOui (CSE obligatoire, Code du travail L.2312-38)
Tracking continu keystrokesLégalGénéralement illégal (jurisprudence CNIL)
Captures d'écran périodiquesLégalContraintes fortes (proportionnalité + nécessité)
Classement AI ActHaut risque (Annexe III)
Sanction potentielle maximum4 % du CA mondial (RGPD) + 35 M€ (AI Act)

4. La boucle : surveillance → entraînement → licenciement → remplacement

Diagramme en quatre étapes : surveiller les employés, entraîner les agents IA sur leurs traces, licencier 8 000 personnes, remplacer par les agents. Une flèche en pointillés montre que la boucle se referme sur les employés restants.
Les quatre étapes : le cycle ne s'arrête pas avec les 8 000 premiers licenciés

Le chiffrage est instructif. Meta ne renvoie pas seulement 8 000 personnes. Il installe un dispositif continu qui extraira du corpus d'entraînement tant qu'il restera des employés à surveiller. Les 72 000 salariés restants après la vague du 20 mai vont alimenter les agents d'une deuxième vague de départs, qui alimentera la troisième, et ainsi de suite. La boucle se ferme sur elle-même.

Ce qui fait l'originalité méthodologique de la Model Capability Initiative, ce n'est pas la surveillance — elle est banale. C'est que l'employeur déclare explicitement que la finalité est d'entraîner des agents destinés à effectuer les mêmes tâches. La boucle entre l'effort humain capturé et l'automate qui hérite de l'effort n'est plus cachée. Meta la met sur la table. C'est ce qui rend la séquence documentable et enseignante.

« Il n'y a pas de limite, au niveau fédéral américain, à la surveillance des travailleurs. » Ifeoma Ajunwa, professeure de droit à Yale, citée par Reuters · avril 2026

5. Les précédents qu'on a ignorés

Le cas Meta n'est pas un éclair dans un ciel serein. Il est l'aboutissement cols-blancs d'une dynamique qui s'est construite sur les cols bleus numériques depuis quinze ans. Quelques reprères.

Amazon mesure le temps passé entre deux colis dans ses entrepôts depuis 2014. Les écarts déclenchent des alertes automatiques et, au-delà d'un seuil, un licenciement algorithmique sans intervention humaine. Uber note chaque chauffeur selon la vitesse, le freinage, le temps d'acceptation de course, et déconnecte automatiquement ceux qui passent sous un seuil. UPS suit l'ouverture de la portière, la ceinture, le parcours, et calcule la productivité en minutes par arrêt.

Dans tous ces cas, l'objectif n'était pas d'entraîner une IA pour remplacer le travailleur. C'était de l'optimiser. La différence qualitative du cas Meta tient au changement de finalité assumé : le tracking ne sert plus à améliorer la performance du salarié, il sert à construire son remplaçant. Shoshana Zuboff avait nommé cette dynamique « capitalisme de surveillance » dans son livre de 2019. Six ans plus tard, Meta en donne l'illustration la plus frontale publiquement documentée.

6. Ce que ça signifie pour une PME française

Un dirigeant de PME française qui lit cette histoire de loin peut se dire que Meta est Meta, que la Californie est la Californie, et que rien de tout cela ne le concerne. C'est une lecture courte. Trois raisons concrètes de ne pas la tenir.

Le contrat implicite du travail qualifié change partout, y compris en France. La question du consentement au tracking devient le nouveau point de friction des plans IA d'entreprise. Les salariés français observent ce que Meta fait aux salariés américains. Le jour où vous déploierez Microsoft Copilot ou un agent RAG sur votre base documentaire, il y aura des questions du CSE qu'il n'y aurait pas eu il y a six mois. Ces questions sont légitimes. Les anticiper vous évite le blocage.

L'avantage concurrentiel se déplace vers les entreprises qui savent faire sans surveiller. En 2026, un agent de qualification de leads ne nécessite pas de tracker vos salariés : il peut être construit sur des prompts et des données anonymisées, avec la même valeur opérationnelle. L'illusion que la surveillance est le raccourci pour construire l'IA opérationnelle est une illusion américaine que les PME françaises n'ont aucun intérêt à reproduire. Les équipes Otium qui accompagnent des déploiements IA le constatent : les projets qui aboutissent vite et qui sont adoptés par les équipes sont ceux qui ne demandent aucune surveillance complémentaire.

La charte IA interne devient une obligation pratique, pas seulement juridique. Nous l'avons détaillé dans Rédiger une charte IA pour son entreprise : le modèle concret. La séquence Meta du 21-23 avril va accelérer les demandes de clarification côté salariés. Les PME qui posent par écrit ce qu'elles font et ce qu'elles ne font pas en matière de surveillance IA auront un climat interne plus sain que celles qui laissent l'incertitude installer le doute.

7. Notre lecture

La séquence Meta du printemps 2026 n'est pas une fêlure morale isolée. Elle est la version frontale d'un mécanisme que Hannah Arendt avait nommé banalité de l'obéissance, et qu'elle ne voyait pas se cacher dans la férocité mais dans l'effacement du pourquoi. Les 80 000 salariés de Meta n'ont rien à se reprocher individuellement. Ils vont au travail, ils produisent, ils utilisent les outils que l'entreprise leur fournit. Et en faisant cela, dans le cadre nouveau établi par la Model Capability Initiative, ils alimentent leur propre relève sans le vouloir. L'asymétrie n'est pas entre un employeur méchant et des employés gentils. Elle est entre un dispositif qui collecte inlassablement et des individus qui n'ont pas les ressorts d'opposition (syndicat fort, cadre légal protecteur, possibilité d'opt-out) que leurs collègues européens ont encore.

Le précédent Meta a deux conséquences importantes pour tout le monde. La première : il fixe un niveau acceptable de surveillance tech-industrielle qu'OpenAI, Google, Microsoft, Amazon et xAI peuvent maintenant reproduire sans avoir à l'inventer. La barre est posée. La seconde : il crée une asymétrie concurrentielle durable entre les systèmes d'IA américains, entraînés sur des corpus de travail complets et authentiques, et les systèmes européens, contraints par le RGPD et l'AI Act de se priver de cette matière. Cet avantage pourrait, à terme, justifier une refonte de la doctrine européenne. On peut également lire la même asymétrie dans l'autre sens : les modèles européens seront moins performants sur les tâches d'assistance aux cols blancs, mais l'écosystème de travail qu'ils servent sera plus sain. Il faudra choisir.

Nous reviendrons sur le cadre philosophique dans un article à venir, Claude Code : la banalité de l'obéissance, qui raconte les mécanismes psychologiques par lesquels l'intégration d'un outil IA dans un flux de travail peut, sans aucune intention malveillante, transformer l'utilisateur en exécutant d'un donneur d'ordre invisible. L'affaire Meta en donne le cas pratique à l'échelle d'une entreprise. Le prochain article en donnera la génération individuelle.

Pour les lectures complémentaires déjà publiées : Rédiger une charte IA pour son entreprise, Comment éliminer le Shadow AI, Cybersécurité : l'IA amplifie-t-elle les risques ?.