Le 7 mai 2026, le Conseil et le Parlement européens ont confirmé la deadline d'application du AI Act pour les systèmes haut risque listés à l'Annexe III : 2 août 2026. La simplification annoncée ne décale pas la date, elle clarifie les standards techniques. Pour une entreprise qui développe ou utilise un outil IA en recrutement, en crédit, en éducation ou en services essentiels, c'est dans douze semaines. Ce guide vous donne la méthode opérationnelle pour classer vos systèmes, produire les documents exigibles et éviter la sanction de 15 millions d'euros ou 3 % du chiffre d'affaires mondial.

1. Le AI Act en une page : qui le produit, qui l'applique

Le AI Act est le Règlement (UE) 2024/1689, adopté le 13 juin 2024, entré en vigueur le 1er août 2024. Premier texte mondial à encadrer l'intelligence artificielle de manière horizontale. Le texte couvre tous les systèmes IA mis sur le marché ou utilisés dans l'Union, quel que soit le pays d'établissement de l'entreprise — un développeur américain ou un éditeur SaaS japonais qui sert des clients européens est concerné.

Drapeau de l'Union européenne Union
européenne
Logo de la Commission européenne Commission
européenne
Logo du bureau européen de l'intelligence artificielle (AI Office) European
AI Office
Marquage CE Marquage
CE

Trois figures pilotent la mise en œuvre.

Portrait officiel d'Ursula von der Leyen, présidente de la Commission européenne.
Ursula von der Leyen
Présidente Commission EU
Mandat reconduit 2024-2029. Donne l'impulsion politique et arbitre les ajustements du AI Act — dont la simplification du 7 mai 2026.
Portrait de Roberto Viola, directeur général de DG CONNECT à la Commission européenne.
Roberto Viola
DG CONNECT
Directeur général de la Direction Communications, Networks, Content and Technology. Pilote la mise en œuvre opérationnelle du AI Act.
Portrait de Lucilla Sioli, directrice du European AI Office.
Lucilla Sioli
Directrice AI Office
Première directrice du bureau européen de l'IA, créé en février 2024. Interlocutrice des fournisseurs de modèles GPAI et coordinatrice des standards techniques.

Crédits photos : Ursula von der Leyen — Wikimedia Commons (portrait officiel 2024). Roberto Viola — Ars Electronica Gala 2018, photo Tom Mesic / Vog.Photo (CC BY-NC-ND 2.0). Lucilla Sioli — European Digital Innovation Hubs Network, sommet annuel 2024 (Commission européenne).

2. Quatre niveaux de risque, une seule catégorie qui pose problème

Le AI Act ne soumet pas tous les systèmes IA aux mêmes règles. Il classe en quatre niveaux selon l'impact potentiel sur les droits fondamentaux et la sécurité.

Niveau 1 · INTERDIT
Pratiques prohibées
Notation sociale, manipulation cognitive, biométrie en temps réel dans l'espace public (sauf exceptions). Sanction : 35 M€ ou 7 % du CA. En vigueur depuis le 2 février 2025.
Niveau 2 · HAUT RISQUE
Annexe III + produits soumis
Recrutement, crédit, éducation, services essentiels, biométrie, infrastructures critiques, justice. Deadline : 2 août 2026. Sept obligations côté fournisseur, cinq côté déployeur.
Niveau 3 · RISQUE LIMITÉ
Transparence
Chatbots, deepfakes, contenus générés. Obligation d'information de l'utilisateur. Pas de marquage CE, pas de registre. Applicable depuis le 2 août 2025.
Niveau 4 · RISQUE MINIMAL
Libre
Filtres anti-spam, recommandations produits, IA dans jeux vidéo. Aucune obligation légale spécifique. Représente la majorité des systèmes IA en circulation.

Le niveau qui déclenche la majorité des projets de mise en conformité cette année est le niveau 2 haut risque. Pas parce qu'il est complexe en soi, mais parce qu'il concerne des cas d'usage très répandus dans les PME et ETI françaises : tout outil de recrutement, de scoring client, d'aide à la décision RH ou de filtrage automatisé tombe potentiellement dedans.

Timeline du calendrier d'application du AI Act 2024-2027 montrant les quatre échéances clés avec le repère du 12 mai 2026.
Calendrier officiel du AI Act — repère aujourd'hui

Sources : Règlement (UE) 2024/1689, articles 113 et 114. Communiqué Commission 7 mai 2026. AI Office.

3. Les huit catégories Annexe III, avec exemples PME français concrets

L'article 6 du AI Act renvoie à l'Annexe III pour la liste exhaustive des cas haut risque. Huit catégories, et la grande majorité des PME concernées tombent dans deux d'entre elles : emploi et services essentiels.

  1. Biométrie non interdite. Identification biométrique à distance (hors espace public temps réel), catégorisation biométrique sensible, reconnaissance d'émotions. Exemple PME : une plateforme de télé-entretien qui détecte les émotions du candidat. Concerne : HR tech, edtech.
  2. Infrastructures critiques. Composants de sécurité dans la gestion du réseau routier, de l'eau, du gaz, de la chaleur, de l'électricité, des réseaux numériques critiques. Exemple PME : une start-up qui vend un système d'optimisation réseau à un régie d'eau. Concerne : industrie, utilities, smart grid.
  3. Éducation et formation professionnelle. Accès aux établissements, évaluation des résultats, attribution d'orientation, détection des comportements pendant les examens. Exemple PME : une edtech B2B qui scoreCAcs étudiants pour des écoles de commerce. Concerne : edtech, formation continue.
  4. Emploi et gestion des travailleurs. Recrutement, filtrage de CV, évaluation pendant l'entretien, attribution de tâches, évaluation de performance, décisions de promotion ou de licenciement. Exemple PME : un ATS (Applicant Tracking System) qui pré-trie automatiquement les candidatures. Concerne : tous secteurs ayant un outil de recrutement IA.
  5. Accès aux services essentiels. Évaluation d'éligibilité aux prestations sociales, scoring de crédit personne physique, scoring d'assurance vie/santé, triage en services d'urgence. Exemple PME : un fintech qui calcule un score de remboursement pour un mini-prêt conso. Concerne : fintech, assurtech, santé.
  6. Application de la loi. Évaluation du risque de récidïve, profilage, analyse de preuves, polygraphes. Concerne quasi exclusivement les fournisseurs des forces de l'ordre.
  7. Migration, asile et contrôle aux frontières. Évaluation du risque posé par un demandeur de visa, examen des demandes d'asile, vérification d'identité. Concerne très peu de PME privées.
  8. Administration de la justice et processus démocratiques. Aide au juge dans la recherche de faits, influence d'élections, modération d'opinions politiques. Concerne legaltech B2B et plateformes éditoriales.

Pour une PME ou ETI française, la probabilité d'être concernée se concentre sur les catégories 4 (emploi) et 5 (services essentiels). Si vous utilisez un ATS, un outil de scoring client, une solution d'aide à la décision de crédit ou d'assurance, ou une plateforme d'évaluation de candidats, vous devez classer.

4. Le test de classification en cinq questions

L'article 6 du AI Act et son article 6(3) introduisent une logique simple : tomber dans l'Annexe III ne suffit pas toujours à basculer en haut risque. Si le système exécute uniquement une tâche procédurale, améliore un travail humain antérieur, ou prépare une évaluation sans la remplacer, l'exception 6(3) peut s'appliquer. Voici l'arbre de décision à suivre.

Arbre de décision en cinq questions pour déterminer si un système IA est haut risque au sens du AI Act 2024.
Arbre de décision haut risque — AI Act article 6 + Annexe III

Logique dérivée des articles 6, 16 et 26 du Règlement (UE) 2024/1689. Référentiel AI Act Service Desk Commission européenne.

Les cinq questions, dans l'ordre, sont les suivantes :

  1. Votre système IA tombe-t-il dans une des 8 catégories de l'Annexe III ? Reprenez la liste de la section 3 et confrontez-la à vos cas d'usage réels, pas à la brochure marketing du fournisseur.
  2. Le système exécute-t-il une tâche purement procédurale sans influence sur la décision finale ? Exemple : un OCR qui lit un CV pour remplir un formulaire sans noter le candidat : exception 6(3). Un OCR qui lit un CV et calcule un score de compatibilité : haut risque.
  3. Êtes-vous fournisseur (provider) ou déployeur (deployer) ? Le fournisseur développe ou met sur le marché sous son nom. Le déployeur utilise un système déjà existant dans son activité. La distinction détermine quel article s'applique : 16 ou 26.
  4. Avez-vous personnalisé substantiellement le système du fournisseur ? Si oui, vous pouvez basculer en provider au sens de l'article 25. Personnaliser substantiellement signifie modifier la finalité prévue ou ré-entraîner le modèle, pas simplement configurer des seuils.
  5. Le système est-il déjà en production au 2 août 2026 ou sera-t-il mis en service après ? Les systèmes haut risque mis sur le marché avant le 2 août 2026 bénéficient de l'article 111 (période transitoire 2-6 ans selon le cas). Les systèmes mis en service après sont soumis au régime complet immédiatement.

5. Qui n'est pas concerné (et pour quelles raisons)

Beaucoup d'entreprises paniquent en croyant qu'elles relentent du haut risque alors que non. Quatre cas typiques sortent du régime.

Usage purement bureautique de l'IA générative. Un commercial qui utilise ChatGPT pour rédiger des emails, un comptable qui demande à Claude de vérifier une formule Excel, un marketeur qui demande à Gemini de proposer des accroches : aucun de ces cas ne relève de l'Annexe III. C'est un usage de productivité. Le seul devoir est la transparence si du contenu généré est publié sans édition humaine substantielle.

Recherche, prototypage interne, R&D. Les systèmes en développement, non mis sur le marché ni utilisés en production, sortent du périmètre. Article 2(8). La bascule se fait au moment de la mise en service ou de la commercialisation.

Exception article 6(3). Même dans une catégorie Annexe III, si le système effectue une tâche procédurale déterminée (extraction de données, traduction, classification simple sans évaluation) sans poser de risque significatif sur les droits fondamentaux, il sort du régime haut risque. La documentation de cette évaluation reste obligatoire.

Systèmes IA pour usage militaire, défense, sécurité nationale. Article 2(3). Hors périmètre du AI Act, soumis à d'autres régimes.

6. Fournisseur ou déployeur : la distinction qui change tout

L'erreur la plus fréquente en mai 2026 chez les PME : croire qu'on est déployeur quand on a en réalité le statut de fournisseur. La conséquence est massive : l'article 16 (fournisseur) impose sept obligations cumulatives lourdes, l'article 26 (déployeur) en impose cinq beaucoup plus légères.

Vous êtes fournisseur (provider) au sens du AI Act si :

Vous êtes déployeur (deployer) si :

L'erreur de qualification coûte cher Un cabinet juridique français spécialisé observait en avril 2026 que près d'un dossier de mise en conformité sur cinq commençait par une qualification erronée — généralement une PME qui se croyait déployeur alors qu'elle était fournisseur du fait d'un ré-entraînement de modèle. Les obligations à produire ne sont pas du tout les mêmes : documentation technique complète, évaluation de conformité, marquage CE, registre EU. La qualification est la première décision à valider — avant toute production de livrable.

7. Les sept obligations du fournisseur (article 16)

Un fournisseur de système IA haut risque doit produire et maintenir sept livrables cumulatifs avant le 2 août 2026.

  1. Système de gestion des risques continu (article 9) — identification, évaluation et atténuation des risques sur tout le cycle de vie. Document vivant, mis à jour à chaque changement substantiel.
  2. Données et data governance (article 10) — jeux d'entraînement, validation et test doivent être pertinents, représentatifs, exempts d'erreurs et de biais documentables. Exigence forte pour les usages RH et crédit.
  3. Documentation technique (article 11 + Annexe IV) — description du système, architecture, données, performances, métriques. Conservée 10 ans, accessible aux autorités.
  4. Tenue de logs (article 12) — troisçabilité automatique des opérations pendant la durée de vie. Conservés 6 mois minimum (ou plus selon règles sectorielles).
  5. Transparence et information de l'utilisateur (article 13) — notice d'utilisation claire, instructions, périmètre de performance, limites connues, supervision humaine attendue.
  6. Supervision humaine effective (article 14) — le système doit être conçu pour permettre à un humain de l'interrompre, de remettre en cause ses sorties, de comprendre ses limites.
  7. Précision, robustesse et cybersécurité (article 15) — niveaux d'exactitude documentés, robustesse aux entrées inattendues, protection contre les attaques adversariales.

S'ajoutent à ces sept obligations de fond trois obligations administratives : évaluation de conformité (article 43), apposition du marquage CE (article 48), enregistrement dans la base de données EU des systèmes haut risque (article 49). Le marquage CE est l'équivalent IA de ce qui existe déjà pour les jouets, les dispositifs médicaux, les machines : une attestation de conformité apposée sur le produit ou sa documentation.

8. Les cinq obligations du déployeur (article 26)

Le régime déployeur est plus léger mais loin d'être nul. Pour une PME qui utilise un outil tiers en catégorie haut risque, voici les cinq obligations à assumer.

  1. Mesures techniques et organisationnelles pour respecter la notice d'utilisation du fournisseur. Concrètement : lire la notice, l'intégrer à vos processus, former vos équipes.
  2. Supervision humaine assignée à une personne physique disposant de la compétence, de la formation et de l'autorité nécessaires. Pas une simple ligne dans le contrat : un humain identifié, formé, capable d'interrompre ou de challenger les décisions IA.
  3. Pertinence et qualité des données d'entrée — le déployeur reste responsable de la propreté et de la représentativité des données qu'il fournit au système. Données CV biaisées : la responsabilité vous remonte.
  4. Conservation des logs — au minimum 6 mois, sauf règle sectorielle plus stricte (RH, secteur financier, santé).
  5. Analyse d'impact sur les droits fondamentaux (FRIA) — obligatoire pour les organismes publics et certains secteurs régulés, recommandée dans tous les autres cas. Compléte (et ne remplace pas) le DPIA RGPD.

9. La méthode opérationnelle en quatre sprints

Il reste 82 jours au 12 mai. Le programme de mise en conformité tient en quatre sprints de deux semaines chacun. Cible : une PME de 30 à 250 salariés avec un ou deux systèmes IA potentiellement haut risque.

Sprint 1 (semaines 1-2) : recensement et qualification

Sprint 2 (semaines 3-4) : documentation et lecture de notice

Sprint 3 (semaines 5-6) : gouvernance, données, logs

Sprint 4 (semaines 7-8) : finalisation et registre

Pour une PME à un seul système haut risque (cas le plus fréquent), le programme est compressible à 6 semaines avec un binome interne (un DSI ou DPO + un juriste interne ou externe). Pour une ETI multi-systèmes, comptez 12 à 16 semaines.

10. Sanctions : ce que vous risquez concrètement

Le AI Act distingue trois échelles de sanctions, codifiées à l'article 99.

ManquementSanctionCritère
Pratique interdite (Niveau 1) Jusqu'à 35 M€ ou 7 % du CA mondial annuel Montant le plus élevé
Violation obligations haut risque Jusqu'à 15 M€ ou 3 % du CA mondial annuel Montant le plus élevé
Information incorrecte aux autorités Jusqu'à 7,5 M€ ou 1 % du CA mondial annuel Montant le plus élevé

Pour les PME et start-up, des réductions sont prévues mais ne suppriment pas la sanction. Le scénario réaliste pour une PME française au 2 août 2026 n'est pas une amende de 15 M€, mais :

11. Ressources officielles et points d'appui

Trois sources publiques permettent de vérifier vos obligations sans cabinet :

Côté français, la CNIL a publié en avril 2026 une fiche pratique sur l'articulation AI Act / RGPD, et organise des webinaires mensuels pour les PME. La DGE (Direction générale des entreprises) maintient un guide pratique adressé aux ETI et grands groupes industriels.

Règle d'or 2026 Documenter une exception 6(3) est plus simple que documenter un régime haut risque complet. Avant de lancer un programme à 80 000 €, vérifiez si l'exception s'applique à votre cas. Beaucoup d'usages PME tombent dans 6(3) avec une documentation 2 pages, alors que les cabinets juridiques vendent par défaut un programme complet.

12. Conclusion : 82 jours, deux décisions, un livrable

L'AI Act haut risque ne demande pas un projet géant. Il demande deux décisions et un livrable.

Première décision : classez chaque système IA en service ou en projet selon l'arbre de la section 4. Beaucoup d'usages PME tombent en régime limité ou en exception 6(3). Le travail de classification prend une journée pour une PME à cinq outils IA.

Deuxième décision : pour chaque outil haut risque confirmé, identifiez si vous êtes fournisseur ou déployeur. La majorité des PME qui utilisent du SaaS sont déployeurs, et le régime article 26 est nettement plus léger que l'article 16.

Le livrable : un dossier de conformité (classification + notices + politique supervision + logs + FRIA si applicable) prêt au 2 août 2026. Pas un livre de 200 pages. Un dossier opérationnel, à jour, exhibable à l'autorité en cas d'audit.

La fenêtre de tir est de 82 jours au 12 mai 2026. Ce qui se joue n'est pas l'amende théorique de 15 M€ (peu probable pour une PME), mais le risque opérationnel d'un système arrêté en cours de saison commerciale, et la perte de confiance client si un cas devient public.