Le 15 avril 2026, l'ANTS perd 19 millions d'identités françaises via une faille technique basique. Quatre jours plus tard, Vercel confirme une intrusion partie d'un employé d'un outil IA tiers. Deux ans plus tôt, Arup perdait 25 millions de dollars à cause d'un faux CFO en visio. Les attaques IA ont progressé de 1 210 % en 2025. Le débat n'est plus théorique. Voici ce qu'il faut comprendre, avec cinq cas documentés, pour ne pas y passer.
1. L'IA change la nature même des attaques
Avant 2023, une campagne de phishing ciblant une entreprise supposait de rédiger à la main un email crédible, de trouver un motif plausible, et d'envoyer à une liste limitée. Le coût-attaque était élevé, le taux de succès moyen, et la détection encore possible avec des outils statistiques classiques.
L'IA générative casse les trois paramètres en même temps. Le coût de production d'un phishing contextualisé tombe à zéro marginal. La personnalisation atteint un niveau qui rendait l'attaque détectable devenue industriellement crédible. Et le contenu IA-généré déjoue les détecteurs traditionnels, fondés sur des signatures textuelles figées.
Cadre d'analyse issu de Sumsub Identity Fraud Report 2025 et Hoxhunt Phishing Trends 2026.
La conséquence concrète : une fuite de données qui aurait été exploitée à petite échelle avant 2023 devient, en 2026, le carburant d'une campagne ciblée contre chaque personne fuitée, avec du contenu personnalisé à partir de ses données exposées.
2. Cinq cas documentés pour sortir de la théorie
Sources : CNN, Fortune, CFO Dive, Marketing-Interactive, The Register, Ministère de l'Intérieur.
Cas 1 — Arup, 25 millions de dollars évaporés en 15 virements
En janvier 2024, un employé finance d'Arup au bureau de Hong Kong reçoit un email de son CFO lui demandant une série de virements confidentiels. Il flaire le phishing. Il demande un call vidéo pour vérifier.
Dans le call Teams, il voit le CFO. Il voit plusieurs collègues du comité exécutif. Il entend leur voix. Il se sent rassuré. Il exécute 15 virements pour un total de 25 millions de dollars vers cinq comptes bancaires à Hong Kong (CNN, Fortune).
La découverte du piège est postérieure au débit. Tous les participants au call — sauf lui — étaient des deepfakes générés à partir d'archives vidéo et audio publiques d'Arup (réunions en ligne, keynotes, webinars).
C'est le premier cas de fraude industrielle par deepfake vidéo temps réel connu à cette échelle. Il date de janvier 2024. Deux ans plus tard, le mode opératoire est industrialisé.
Cas 2 — WPP, le deepfake déjoué du CEO Mark Read
En mai 2024, des attaquants créent un faux compte WhatsApp au nom de Mark Read, CEO de l'agence publicitaire WPP, avec une photo publique. Ils invitent un « agency leader » à un call Teams. Dans le call : une voix clonée par IA à partir de vidéos YouTube et Mark Read en image d'archive (Marketing-Interactive).
Objectif : pousser le collaborateur à créer une nouvelle entreprise fictive pour détourner de l'argent et extraire des données personnelles. Le collaborateur relève l'incohérence, alerte la sécurité interne. L'attaque échoue.
Le fait que WPP — groupe de 110 000 salariés — ait été ciblé par ce niveau d'ingénierie montre que la barrière technique n'est plus pour les acteurs malveillants. Elle n'est plus que pour les défenseurs.
Cas 3 — Ferrari, le détail qui sauve 10 millions d'euros
En juillet 2024, un executive Ferrari reçoit des messages WhatsApp signés du CEO Benedetto Vigna au sujet d'une acquisition confidentielle. Un appel suit. La voix clonée reproduit même l'accent d'Italie du Sud du vrai Vigna (Fortune).
L'executive se méfie. Il pose une question dont seul le vrai Vigna connaît la réponse — titre d'un livre qu'il lui avait recommandé quelques jours plus tôt. L'attaquant bloque. Le détail sauve l'opération.
Leçon opérationnelle : en 2026, aucune signature biométrique (voix, visage, accent) ne peut être considérée comme une preuve suffisante d'identité dans un contexte transactionnel. Seul un canal hors-IA valide l'authenticité.
Cas 4 — Vercel piratée via son outil IA tiers
Le 19 avril 2026, Vercel confirme une intrusion. La chaîne est instructive (The Register, TechCrunch).
- En février 2026, un employé de Context.ai (outil IA tiers) télécharge ce qu'il croit être un cheat code pour Roblox. Le fichier contient Lumma Stealer, un infostealer qui siphonne ses credentials Google Workspace, Supabase, Datadog et Authkit.
- Les tokens OAuth de Context.ai tombent dans les mains des attaquants.
- Un employé Vercel avait préalablement autorisé Context.ai avec la permission Google Workspace « Allow All » (autorisation générale, rarement utile mais souvent cliquée par habitude).
- Les attaquants utilisent ce token pour se connecter au Google Workspace de Vercel, puis accédent à vercel.com/context-inc/valinor/settings/environment-variables, où sont stockés les secrets, clés API et configurations de déploiement.
- Les variables d'environnement de clients Vercel sont exfiltrées, mises en vente 2 millions de dollars sur BreachForums.
L'IA n'est pas directement dans le vol. Elle est dans la chaîne d'approvisionnement : un outil IA tiers, adopté sans gouvernance, a servi de cheval de Troie.
Cas 5 — ANTS, 19 millions d'identités françaises à l'encan
Le 15 avril 2026, le portail ANTS (cartes d'identité, passeports, permis de conduire) est compromis. Le 20 avril, le ministère de l'Intérieur confirme : jusqu'à 19 millions de profils exfiltrés — noms, prénoms, dates de naissance, adresses, numéros de téléphone, emails, avec dans certains cas des références aux documents d'identité (Journal du Geek, Cryptoast).
La faille est technique, pas IA : un IDOR (Insecure Direct Object Reference) sur moncompte.ants.gouv.fr. Un attaquant modifiait un identifiant dans l'URL pour accéder aux données d'un autre utilisateur. Vulnerabilité classique, connue depuis 20 ans.
Mais le préjudice, lui, est démultiplié par l'IA. 19 millions d'identités complètes deviennent un carburant pour des campagnes de phishing personnalisé à grande échelle, des tentatives de deepfake vocal ciblées (« maman, c'est Sophie, j'ai eu un accident »), et des usurpations administratives assistées par IA.
Notification à la CNIL, saisine du procureur de Paris, enquête en cours. Pour les usagers : aucune action de masse possible, juste de la vigilance individuelle pour les 5 ans à venir.
Cas 6 — Le vishing familial, la fraude à 3 secondes
Moins médiatisé mais plus large : le voice cloning des membres de la famille. Trois secondes d'audio suffisent pour recréer une voix. Europol a intercepté plus de 7 500 appels frauduleux en Europe en 2024, évitant 10 millions d'euros de pertes dans 80 % des cas (Parlement européen).
Le schéma type : un parent reçoit un appel de la « voix » de son enfant, en pleurs, disant avoir eu un accident ou être en garde à vue. Urgence financière immédiate, montant modeste (500-5 000 €), virement rapide. Le parent paie avant de vérifier.
Le voice cloning AI a progressé de 400 % en 2025. Un tiers des Européens interrogés (France, UK, Allemagne, Espagne) disent avoir rencontré une tentative en 2024.
3. Les chiffres qui devraient inquiéter tout dirigeant
Sources : Sumsub, Right-Hand, Keepnet, The European, StrongestLayer, FBI IC3, ScamWatch HQ, McAfee Survey 2024-2026.
Ce qui compte pour une PME : pas chaque chiffre pris isolément, mais le mouvement d'ensemble. Les phishings IA-générés ont un taux de clic 4 fois supérieur aux phishings humains (StrongestLayer). 82,6 % des phishings contiennent du contenu IA-généré. Les pertes BEC (Business Email Compromise) atteignent 2,77 milliards de dollars aux États-Unis en 2025 et sont sous-déclarées d'un facteur 3 à 5.
Votre entreprise reçoit un email malveillant toutes les 19 secondes en moyenne. La question n'est plus de savoir si vous serez ciblé, mais quand un de vos collaborateurs cliquera.
4. Ce que vous devez mettre en place concrètement
1. Code de confirmation hors-canal pour toute transaction financière. Le cas Arup (25 M$) aurait été évité par une règle simple : tout virement au-dessus d'un seuil X nécessite une confirmation sur un canal différent de celui qui a initié la demande. Appel téléphonique sur le numéro connu, SMS de confirmation sur mobile vérifié, question-réponse pré-partagée comme Ferrari.
2. Audit des OAuth et réduction des scopes. Le cas Vercel part d'un « Allow All » cliqué par habitude. Revoir trimestriellement la liste des applications autorisées sur Google Workspace / Microsoft 365 de chaque employé, révoquer l'accès à toute app non essentielle, limiter les scopes au strict minimum.
3. MFA partout, et pas seulement par SMS. Le SMS est compromettable via SIM swap. Passer à une application authenticator (Microsoft, Google, Authy) ou à une clé physique (Yubikey) pour les comptes sensibles. Le vol de token OAuth reste possible mais l'ajout de MFA sur les accès réduit la fenêtre d'exploitation.
4. Gouvernance des outils IA tiers. Interdire l'usage d'outils IA non validés (Shadow AI), maintenir une liste blanche d'applications autorisées, revoir leurs permissions Google Workspace / M365. Le cas Vercel est typique : un collaborateur bien intentionné a adopté un outil utile sans validation sécurité.
5. Formation aux deepfakes pour les postes à risque. Direction, comptabilité, achats, RH, juridique. Pas une formation annuelle générique : des sessions courtes mensuelles, avec des cas concrets récents (Arup, Ferrari, WPP), des exercices de simulation. Le réflexe « je rappelle avant d'agir » doit devenir automatique.
6. Monitoring des données exposées. Surveiller la présence des données de votre entreprise sur les forums de fuite (BreachForums, Have I Been Pwned, DeHashed, Intel 471). Pour les personnes clés (dirigeants, responsables financiers), mettre en place un monitoring personnel. Les fuites ANTS ou OPQAST vont alimenter des attaques ciblées pendant 5 ans au moins.
5. Pour les PME sans DSI dédiée
La difficulté particulière des PME : ne pas avoir d'équipe sécurité en interne. Ce qui ne signifie pas « rien faire ». Trois actions minimales :
- Un audit ponctuel annuel auprès d'un prestataire cybersécurité spécialisé PME (budget 3-8 k€). L'objectif n'est pas d'atteindre le niveau Bercy, mais de combler les trous béants que tout attaquant automatisé exploite.
- Un contrat de supervision externalisée (MSSP) sur les accès critiques. Budget 300-1 000 €/mois selon taille, pour un monitoring 24/7 qui détecte une connexion anormale avant qu'elle ne déploie sa charge.
- Une cyber-assurance avec clause deepfake et BEC. Les contrats 2026 commencent à intégrer ces scénarios, les anciens contrats les excluent souvent. Vérifier les exclusions avant un incident.
Conclusion
La réponse à la question du titre est oui, sans ambiguïté. L'IA amplifie les risques cyber sur trois dimensions simultanées : la sophistication (contenu crédible sur tous les canaux), la personnalisation (chaque cible reçoit une attaque conçue pour elle), et l'échelle (ce qui coûtait 10 000 € à produire en 2022 coûte 10 centimes en 2026).
La mauvaise nouvelle : aucune solution technique ne rattrapera cette asymétrie. Les outils de détection ont toujours un train de retard sur les outils d'attaque. La bonne nouvelle : les réflexes humains, eux, restent efficaces. Tous les cas déjoués de 2024-2026 (Ferrari, WPP) l'ont été par une personne qui a su dire « je rappelle avant ». Tous les cas réussis (Arup, Vercel) l'ont été parce qu'une chaine de confiance a été faite à l'aveugle.
En 2026, la cybersécurité n'est plus un sujet d'IT. C'est un sujet de culture et de procédure. Former vos équipes, durcir vos workflows, monitorer vos outils tiers : ce sont les trois leviers qui décident si votre PME fait partie des entreprises qui résistent ou de celles qui financeront, bien malgré elles, les prochains développements en IA offensive.