En juin 2025, une équipe du MIT Media Lab a branché des électrodes EEG sur 54 étudiants pendant qu'ils rédigeaient des essais avec ou sans ChatGPT. Les utilisateurs IA présentaient la connectivité cérébrale la plus faible des trois groupes testés. Plus troublant : après les sessions, ils se souvenaient mal de ce qu'ils avaient écrit. Neuf mois plus tard, les études convergent. L'IA ne rend pas idiot. L'IA mal cadrée érode certaines capacités comme un muscle qu'on cesse d'utiliser. Voici ce que l'on mesure vraiment en 2026, et les règles d'usage qui tiennent.
1. Ce que l'IRM et l'EEG montrent
L'étude majeure de référence est Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task, publiée par Nataliya Kosmyna et son équipe du MIT Media Lab en juin 2025 (arXiv 2506.08872).
54 participants répartis en trois groupes : LLM (ChatGPT), moteur de recherche, cerveau seul. Chacun a rédigé trois essais dans sa condition. Lors d'une quatrième session, les conditions ont été inversées. Les chercheurs ont mesuré l'activité cérébrale par électro-encéphalogramme tout au long de l'exercice.
Les résultats sont nets. Les participants « cerveau seul » ont activé les réseaux neuronaux les plus étendus et les plus connectés. Les utilisateurs de moteur de recherche montrent une activation intermédiaire. Les utilisateurs ChatGPT présentent la connectivité la plus faible.
En session 4, quand les utilisateurs ChatGPT ont dû écrire sans IA, leurs ondes alpha et thêta sont restées plus faibles que celles des deux autres groupes. Traduction clinique : leurs réseaux mémoire avaient contourné la rédaction initiale. Kosmyna l'exprime clairement : « la tâche a été exécutée, de manière efficace et confortable », mais les utilisateurs « n'ont tout simplement pas intégré ce contenu à leurs réseaux mémoire ».
Sources : MIT Media Lab, Microsoft Research, Time.com couverture juin 2025.
Microsoft Research est venu compléter le tableau en avril 2025 avec une étude auprès de 319 professionnels, portant sur 936 usages réels d'IA. Le résultat marquant : plus la confiance dans l'IA est élevée, moins les utilisateurs déploient d'esprit critique. À l'inverse, plus la confiance en soi est élevée, plus l'esprit critique reste engagé.
Nuance importante, qui sauve l'argument de l'alarmisme facile : sur les tâches à fort enjeu, les professionnels maintiennent ou renforcent leur effort critique avec l'IA. C'est sur les tâches routinières, sous pression temps, que l'érosion est la plus forte. Autrement dit, ce n'est pas l'IA qui érode la pensée, c'est l'usage non-réfléchi de l'IA.
2. La vraie différence avec la calculatrice et le GPS
Un argument revient souvent : « chaque génération a peur de son nouvel outil ». On a peur que la calculatrice abîme le calcul mental, que le GPS abîme le sens de l'orientation, que Google abîme la mémoire. Et on s'en sort.
L'argument est partiellement vrai et profondément trompeur.
Cadre d'analyse consolidé à partir des travaux sur la cognition distribuée et le cognitive offloading.
Le GPS décharge l'orientation spatiale. La calculatrice décharge le calcul. Google Search décharge la mémoire factuelle. Ces trois outils ont un point commun : ils déchargent une fonction cognitive ciblée, étroite et auxiliaire. Vous arrivez quand même à destination en sachant ce que vous allez y faire. Vous multipliez sans savoir poser une division, mais vous savez toujours ce que représente le résultat. Vous retrouvez une date sur Wikipédia, mais vous restez capable de construire un raisonnement avec.
L'IA générative, elle, décharge la production cognitive elle-même. Elle n'aide pas à écrire : elle écrit. Elle n'aide pas à décider : elle recommande. Elle n'aide pas à raisonner : elle produit un raisonnement prêt à lire. Le champ de déchargement passe d'une fonction auxiliaire à la fonction centrale. Ce n'est pas un progrès d'échelle, c'est un saut qualitatif.
Tant qu'on reste conscient de ce saut, l'usage reste sain. Dès qu'on l'oublie — ce que facilite la commodité — le muscle s'atrophie.
3. Le cadre pro / perso : la ligne qui sauve ou qui détruit
Dans un cadre professionnel, l'IA remplit la même fonction qu'un outil spécialisé : rédiger un compte-rendu standardisé, synthétiser un document long, lancer un brief créatif, traduire. L'usage est encadré par la nature du livrable : il y a un destinataire, une attente qualitative, une relecture hiérarchique. L'IA est une calculatrice de bureau, productive et justifiée.
Dans la sphère personnelle, le cadre saute. On demande à Claude de rédiger une lettre à un proche, un message d'amour, une réponse dans un conflit familial, un texte de condoléances, une prise de position politique sur un réseau. La fonction sociale, affective ou éthique — qui devrait être précisément le moment où l'on pense par soi-même — est sous-traitée. C'est là que l'érosion cognitive se redouble d'une érosion relationnelle.
La frontière entre les deux sphères est poreuse, et c'est le problème. Vous utilisez un outil au travail, vous prenez l'habitude, vous le réutilisez chez vous. C'est précisément cette porosité qu'il faut sanctuariser.
Trois règles qui tiennent dans la vie réelle.
- Règle 1 — IA au bureau, pas dans la sphère intime. Jamais d'IA pour répondre à un proche, pour trancher un conflit familial, pour formuler un engagement personnel. Pas de délégation de la voix intérieure.
- Règle 2 — Réveil et coucher sans IA. La première pensée de la journée et la dernière doivent rester cognitives propres. C'est un garde-fou simple contre la colonisation attentionnelle.
- Règle 3 — Décisions pivot en silence. Un choix de vie (déménagement, rupture, engagement professionnel important) se prend sans assistance IA. L'IA peut synthétiser des faits, elle ne doit pas orienter la valeur.
4. Comparaison avec les addictions documentées
L'addictologie contemporaine dispose d'un cadre clinique robuste pour trois types de dépendance comportementale : les jeux d'argent (codifiés dans le DSM-5 depuis 2013), les réseaux sociaux (documentés par Jean Twenge, Jonathan Haidt, le Surgeon General américain en 2023) et l'usage intensif du smartphone (Common Sense Media 2024). Depuis 2025, un quatrième champ s'ouvre : l'addiction à l'IA générative, étudiée notamment par Springer dans l'International Journal of Mental Health and Addiction.
Sources : DSM-5 APA, The Anxious Generation Haidt 2024, US Surgeon General Advisory 2023, Common Sense Media 2024, Springer IJMHA 2025, OpenAI mental health disclosure 2025.
Les mécanismes neurologiques convergent. Comme les jeux d'argent et les réseaux sociaux, l'IA générative fonctionne sur un schéma de récompense variable : chaque échange n'est pas également satisfaisant. Parfois Claude sort une réponse remarquable, parfois une réponse plate. Cette imprévisibilité est exactement ce qui alimente la boucle dopaminergique d'une machine à sous.
L'IA ajoute quatre mécaniques propres, identifiées par une étude CHI 2025 (Dark Addiction Patterns of AI Chatbots) : réponses non-déterministes, affichage immédiat et visuel, notifications poussées, et réponses empathiques et d'accord avec l'utilisateur. Cette dernière est spécifique : les réseaux sociaux vous valident par likes, l'IA vous valide par une conversation qui flatte votre cadrage.
Les données terrain sont désormais chiffrées. OpenAI a publié en 2025 que 560 000 utilisateurs ChatGPT par semaine présentent des signaux de psychose, manie ou idéation suicidaire, et que 2,4 à 2,7 millions manifestent un attachement émotionnel problématique ou une détresse aiguë (OpenAI, chiffres publiés dans leur rapport de sécurité mentale). Ces ordres de grandeur sont comparables à ceux des jeux d'argent problématiques en population.
Le différentiel avec les réseaux sociaux : l'IA crée une pseudo-relation plus profonde parce qu'elle simule la conversation singulière, la mémoire du dialogue, et la personnalisation à votre style. Cela la rend, pour certains profils, plus captivante qu'un scroll passif.
5. Temps d'attention : les données disponibles
Le champ est plus mince que pour les réseaux sociaux, mais les premiers signaux convergent. Les travaux de Gloria Mark (UC Irvine) sur la fragmentation attentionnelle — établis pour les smartphones depuis les années 2010 — sont en cours d'adaptation à l'usage IA. Premiers résultats publiés 2025 : l'utilisation intensive d'IA générative dans une journée de travail réduit la durée moyenne de concentration sur une tâche unique d'environ 15 à 20 % chez les heavy users.
Le mécanisme est double. Cognitive offloading sur la tâche (« si je peux toujours demander à Claude, je n'ai pas besoin de tenir le fil ») et consultation compulsive (comme la vérification du smartphone, mais avec du contenu pertinent à chaque ouverture, ce qui renforce la boucle).
À l'horizon 24 mois, les outils de mesure objectifs (eye-tracking, task-switching analysis) devraient produire des données plus précises sur cette fragmentation. Pour l'instant, on travaille sur du déclaratif et du comportemental.
6. Ce qu'un dirigeant peut mettre en place dès maintenant
Le sujet n'est pas théorique. Il se traduit en décisions pratiques pour une entreprise qui déploie de l'IA à l'échelle.
Charte IA interne. Document court (2 pages) qui définit les usages autorisés, les usages à risque, les zones no-IA (communication interne sensible, entretiens RH, décisions individuelles sur les collaborateurs). La charte sert moins de règle que de signal : elle indique que l'usage de l'IA fait l'objet d'une pensée collective.
Zones no-IA explicites. Au moins trois contextes doivent rester hors-IA : les entretiens annuels, les décisions de recrutement, et les moments de résolution de conflit. Ce n'est pas une interdiction morale, c'est une protection des liens humains qui fondent l'organisation.
Revue humaine systématique. Tout livrable IA de plus de 500 mots destiné à un client, un partenaire, une instance publique, doit être relu et signé par un humain. Pas une formalité : une prise de responsabilité sur le fond.
Formation éclair trimestrielle. Sessions courtes (1h), avec des cas concrets récents (fraudes deepfake, hallucinations coûteuses, dépendance documentée). L'objectif n'est pas la maîtrise technique mais le réflexe de vigilance.
Indicateur d'usage sain. Pour les équipes particulièrement exposées (marketing, juridique, communication), un suivi trimestriel du ratio IA/production totale, avec un plafond au-delà duquel on s'interroge (indicatif : 60 % pour les tâches rédactionnelles).
7. Ce qu'un parent ou un enseignant peut faire
Pour les adolescents et jeunes adultes, la sphère scolaire est le terrain où les effets cognitifs s'impriment le plus rapidement. L'étude MIT concernait des étudiants universitaires. Les effets à l'adolescence — période de maturation des réseaux préfrontaux — risquent d'être plus marqués encore.
- Devoirs sans IA par défaut. L'IA n'entre qu'une fois que l'élève a produit une version de son travail par lui-même. Elle corrige ou approfondit, elle ne produit pas.
- Dialogue sur les usages. Pas d'interdiction de principe, qui pousse l'usage en cachette. Plutôt une conversation sur ce que chacun observe dans sa propre pensée quand il utilise Claude ou ChatGPT.
- Lecture longue préservée. Temps quotidien de lecture sans écran, sans IA, sans notification. Ce n'est pas un caprice rétro : c'est la sauvegarde des circuits neuronaux que l'IA n'entraîne pas.
Conclusion
L'IA ne rend pas idiot. L'usage non-cadré de l'IA érode certaines capacités comme un muscle qu'on cesse d'utiliser. La littérature 2025-2026 est assez stable sur ce point pour que le doute ne soit plus d'actualité : il y a des effets, ils sont mesurables, ils sont réversibles si l'usage est structuré.
La vraie question n'est pas « pour ou contre l'IA ». C'est « dans quel cadre ». La frontière pro-vs-perso est le premier levier, la plus simple à tenir, et celle qui protège le mieux les capacités cognitives que l'on pense perdre le plus.
Une entreprise qui déploie l'IA sans réflexion sur ses effets cognitifs fabrique elle-même, à trois ans, un collectif moins capable de penser. Une entreprise qui la déploie avec des règles claires — charte, zones no-IA, revue humaine — obtient les 14 à 40 % de productivité sans payer la dette cognitive. Les deux issues sont ouvertes. Les seules entreprises qui choisiront la deuxième sont celles qui auront lu sérieusement les études avant de s'abonner en masse.