Annexe III AI Act : les 8 catégories haut risque expliquées

L'essentiel en 30 secondes

  • L'Annexe III du Règlement (UE) 2024/1689 énumère 8 domaines dans lesquels un système d'IA est, par défaut, classé haut risque.
  • Ces domaines couvrent biométrie, infrastructures critiques, éducation, emploi, accès aux services essentiels, forces de l'ordre, migration et justice.
  • Une PME française est concernée dès qu'elle déploie ou fournit un système figurant dans l'un de ces cas d'usage — y compris pour un outil acheté à un éditeur tiers.
  • Les obligations couvrent gestion des risques, gouvernance des données, documentation technique, supervision humaine et enregistrement dans la base UE.
  • Sanction maximale pour manquement aux obligations haut risque : 15 M€ ou 3 % du chiffre d'affaires mondial (Art. 99 §4 du Règlement (UE) 2024/1689).
  • La CNIL et l'AI Office publient des grilles permettant de qualifier un système avant déploiement.

1. Pourquoi l'Annexe III est-elle décisive pour une PME

L'Article 6 du Règlement (UE) 2024/1689 (« AI Act ») classe un système d'IA en haut risque selon deux logiques distinctes. La première vise les composants de sécurité de produits déjà encadrés par la législation européenne d'harmonisation listée en Annexe I (machines, dispositifs médicaux, jouets, ascenseurs, etc.). La seconde, autonome, repose sur l'Annexe III.

L'Annexe III énumère huit domaines d'usage. Si votre système d'IA s'y inscrit, il est haut risque par défaut. Une exemption étroite existe à l'Art. 6 §3 lorsque le système ne joue qu'un rôle accessoire au regard de la décision finale, mais elle suppose une évaluation documentée du fournisseur, transmise à la base UE.

Cette qualification déclenche un régime exigeant : système de gestion des risques (Art. 9), gouvernance des données d'entraînement et de test (Art. 10), documentation technique (Art. 11 et Annexe IV), tenue de journaux (Art. 12), transparence et notice d'utilisation (Art. 13), supervision humaine (Art. 14), exactitude, robustesse, cybersécurité (Art. 15), enregistrement dans la base UE (Art. 49 et 71).

Pour une PME, la première erreur consiste à présumer qu'aucun outil n'est concerné. Un logiciel RH de tri de candidatures, un module de scoring crédit ou un outil de vidéoprotection algorithmique entrent directement dans l'Annexe III. Le seuil d'application n'est pas lié à la taille de l'entreprise mais à la nature du cas d'usage.

2. Vue d'ensemble des 8 catégories

L'Annexe III est structurée en huit points (1 à 8). Chacun cible un secteur où une décision algorithmique peut affecter durablement les droits fondamentaux, la sécurité ou l'accès à des biens essentiels.

Point Domaine Exemples typiques pour une PME
1 Biométrie Reconnaissance faciale d'accès, catégorisation biométrique
2 Infrastructures critiques Supervision IA d'un réseau d'eau ou d'électricité
3 Éducation et formation professionnelle Notation automatisée, surveillance d'examens
4 Emploi et gestion des travailleurs Tri de CV, évaluation de performance
5 Accès aux services essentiels Scoring crédit, tarification d'assurance santé
6 Forces de l'ordre Évaluation de risque pénal, profilage
7 Migration, asile, frontières Aide à l'examen de visas et demandes d'asile
8 Justice et processus démocratiques Aide à l'interprétation des faits, ciblage électoral

Source : Annexe III du Règlement (UE) 2024/1689, version consolidée publiée sur eur-lex.europa.eu.

Les sections suivantes détaillent chaque catégorie, ses sous-cas et les déclencheurs concrets pour une PME française.

3. Catégorie 1 : biométrie

Le point 1 de l'Annexe III couvre trois sous-cas, sous réserve que leur déploiement soit autorisé par le droit de l'Union ou national.

  • Identification biométrique à distance, hors vérification d'identité un-à-un (par exemple un déverrouillage sur smartphone reste hors champ).
  • Catégorisation biométrique selon des attributs ou caractéristiques sensibles ou inférés tels que origine raciale, opinions, syndicalisation, conviction religieuse, vie sexuelle.
  • Reconnaissance des émotions, hors finalité médicale ou de sécurité.

Une PME qui exploite un dispositif de reconnaissance faciale à l'entrée d'un site sensible, ou qui déploie un outil d'analyse comportementale en magasin, déclenche cette catégorie. La CNIL rappelle dans ses fiches pratiques IA que la qualification haut risque s'ajoute aux obligations RGPD : analyse d'impact (AIPD), base légale qualifiée pour les données biométriques (Art. 9 RGPD), information renforcée des personnes.

L'exemption de l'Art. 5 §1 sur l'identification biométrique en temps réel dans les espaces publics est strictement réservée à des autorités publiques dans des cas limités. Elle ne couvre jamais l'usage privé d'une PME.

4. Catégorie 2 : infrastructures critiques

Le point 2 vise les systèmes d'IA destinés à être utilisés comme composants de sécurité dans la gestion et l'exploitation des infrastructures numériques critiques, du trafic routier, et de la fourniture d'eau, de gaz, de chaleur et d'électricité.

Le périmètre est défini par la directive (UE) 2022/2557 sur la résilience des entités critiques et la directive NIS2. Une PME sous-traitante d'un opérateur d'importance vitale ou d'un opérateur de services essentiels peut être happée par cette catégorie si elle fournit un module IA intégré à la chaîne de supervision.

Exemples concrets :

  • module de détection d'anomalies sur un réseau de distribution d'eau ;
  • algorithme de prévision de charge sur un poste source électrique ;
  • outil IA de régulation dynamique du trafic urbain.

L'enjeu : un dysfonctionnement peut interrompre un service vital. Le système de gestion des risques (Art. 9) doit donc intégrer des scénarios de dégradation et un plan de bascule manuelle, en cohérence avec les exigences NIS2 sur la continuité d'activité.

5. Catégorie 3 : éducation et formation professionnelle

Le point 3 couvre les systèmes d'IA destinés à :

  • déterminer l'accès, l'admission ou l'affectation à des établissements ou programmes d'enseignement et de formation professionnelle ;
  • évaluer les résultats d'apprentissage, y compris lorsque ces résultats orientent le parcours pédagogique ;
  • évaluer le niveau approprié d'éducation qu'une personne recevra ou pourra atteindre ;
  • surveiller et détecter les comportements interdits lors d'examens.

Les organismes de formation professionnelle (Qualiopi) qui intègrent un outil d'évaluation algorithmique ou un module de proctoring distant entrent dans le champ. Une PME éditrice de SaaS edtech qui commercialise un tel module est qualifiée fournisseur (Art. 16) et porte l'essentiel des obligations.

Risque pratique : un biais de notation peut bloquer un parcours, voire un accès à l'emploi. La gouvernance des données (Art. 10) impose de tester la représentativité du jeu d'entraînement et de documenter les écarts de performance entre sous-populations.

Vérifiez si vos outils relèvent de l'Annexe III

Notre pack documentaire regulia inclut une grille d'auto-qualification couvrant les 8 catégories, alignée sur l'Article 6 et l'Annexe III du Règlement (UE) 2024/1689. Demandez l'accès à la grille et aux modèles associés.

Demander la grille de qualification

6. Catégorie 4 : emploi, gestion des travailleurs, accès au travail indépendant

Le point 4 est le plus susceptible de toucher une PME française car il vise l'ensemble du cycle RH.

Sous-cas :

  • recrutement et sélection : diffusion ciblée d'offres, filtrage automatisé de candidatures, évaluation de candidats ;
  • décisions affectant les conditions de travail, la promotion, la rupture de relation contractuelle, la répartition des tâches sur la base d'un comportement ou de traits personnels, le suivi et l'évaluation des performances et du comportement.

Un ATS (Applicant Tracking System) doté d'un scoring algorithmique, un outil de monitoring de productivité, un dispositif de mesure d'engagement par traitement automatisé des e-mails : tous relèvent du haut risque.

Le déployeur — l'employeur — ne peut pas se contenter de la conformité du fournisseur. L'Art. 26 §7 lui impose d'informer les travailleurs concernés et leurs représentants avant la mise en service. En France, cette information complète la consultation du CSE (Articles L2312-8 et L2312-38 du Code du travail) et les obligations RGPD sur la transparence des traitements.

Pour une cartographie détaillée des risques RH, consultez le glossaire des termes AI Act.

7. Catégorie 5 : accès aux services privés essentiels et services publics

Le point 5 protège l'accès à des biens et services dont la privation a des conséquences lourdes.

Sous-cas :

  • évaluation de l'éligibilité aux prestations et services publics essentiels (allocations, aides) ;
  • évaluation de solvabilité ou attribution d'un score de crédit, hors détection de fraude financière ;
  • évaluation et tarification des risques en assurance vie et assurance santé ;
  • évaluation et classification des appels d'urgence, dispatching de services d'urgence (pompiers, médecins, ambulances), triage des patients.

Pour une PME du secteur financier, du courtage ou de l'assurance, ce point est central. Un moteur de scoring déployé sans système de gestion des risques documenté, sans plan de monitoring post-commercialisation (Art. 72) et sans dispositif de traitement des réclamations expose à la sanction de l'Art. 99 §4.

L'ACPR a confirmé qu'elle exercera une supervision conjointe avec la future autorité nationale AI Act. Les exigences prudentielles existantes (notamment sur la gouvernance des modèles internes) ne dispensent pas du régime AI Act ; elles le complètent.

8. Catégorie 6 : forces de l'ordre

Le point 6 cible les usages par les autorités répressives ou pour leur compte. Les sous-cas couvrent l'évaluation du risque qu'une personne devienne victime, les polygraphes et outils similaires, l'évaluation de la fiabilité des preuves, la prédiction du risque d'infraction ou de récidive, et le profilage dans le cadre de la détection, de l'enquête et des poursuites pénales.

Une PME éditrice de logiciels destinés à la police municipale, à la gendarmerie ou à la justice peut être qualifiée fournisseur. À défaut, une PME prestataire d'un service de sécurité privée n'est en principe pas dans le périmètre du point 6, mais peut basculer sur la catégorie biométrie (point 1) ou sur la catégorie emploi (point 4) selon le cas d'usage.

L'enjeu démocratique a conduit le législateur européen à durcir les conditions de déploiement : nécessité d'une base légale spécifique en droit national, supervision humaine renforcée, droit à l'explication pour la personne concernée (Art. 86).

9. Catégorie 7 : migration, asile, contrôle aux frontières

Le point 7 vise les systèmes utilisés par ou pour le compte d'autorités publiques compétentes en matière de migration, d'asile et de contrôle aux frontières.

Sous-cas :

  • polygraphes et outils similaires ;
  • évaluation des risques posés par une personne entrant ou cherchant à entrer sur le territoire (sécurité, migration irrégulière, santé) ;
  • aide à l'examen des demandes d'asile, de visa, de titres de séjour et des plaintes associées ;
  • détection, reconnaissance ou identification de personnes physiques dans le cadre de la migration, hors vérification de documents de voyage.

Ce point concerne peu directement les PME, sauf à fournir un service à une autorité publique. Le passage en marché public déclenchera systématiquement un cahier des charges incluant les obligations Annexe III.

10. Catégorie 8 : administration de la justice et processus démocratiques

Le point 8 couvre :

  • les systèmes d'IA destinés à aider une autorité judiciaire dans la recherche et l'interprétation des faits et du droit, et dans l'application du droit à un ensemble concret de faits ;
  • les systèmes destinés à influencer le résultat d'une élection ou d'un référendum, ou le comportement de vote des personnes, hors outputs auxquels les personnes ne sont pas directement exposées (par exemple outils internes d'organisation ou d'optimisation des campagnes).

Pour une PME éditrice de logiciels juridiques (legaltech) intégrant un module de prédiction de jurisprudence, la qualification dépend de l'usage. Un outil destiné à aider l'autorité judiciaire elle-même bascule en haut risque. Un outil destiné aux avocats ou aux directions juridiques d'entreprise reste, en général, hors champ — mais peut tomber sous l'obligation de transparence des systèmes d'IA générative (Art. 50).

11. Comment une PME peut-elle se conformer

La démarche se structure en quatre étapes.

  1. Inventaire : cartographier tous les systèmes d'IA déployés ou en projet, internes ou achetés. Le registre des traitements RGPD est un point de départ utile mais insuffisant ; il faut y ajouter les outils SaaS d'éditeurs tiers.
  2. Qualification : pour chaque système, vérifier l'inscription dans l'un des huit points de l'Annexe III. En cas de doute, documenter l'analyse et conserver la trace des sources consultées (texte officiel, lignes directrices de la Commission).
  3. Plan de conformité : pour chaque système qualifié haut risque, instruire les obligations applicables selon votre rôle (fournisseur Art. 16 ou déployeur Art. 26). La distinction est critique : un déployeur qui modifie substantiellement un système peut basculer en fournisseur (Art. 25).
  4. Documentation et preuves : produire la documentation technique (Annexe IV), la déclaration de conformité (Art. 47), le marquage CE le cas échéant, et organiser les preuves d'audit interne.
Étape Livrables clés Référence AI Act
Inventaire Registre des systèmes d'IA Art. 22 (mandataire), Art. 26 §6
Qualification Note de qualification Annexe III Art. 6 §3
Conformité Système de gestion des risques Art. 9
Conformité Documentation technique Art. 11, Annexe IV
Mise en service Enregistrement base UE Art. 49, Art. 71
Exploitation Surveillance post-commercialisation Art. 72
Incident Notification incident grave Art. 73

Pour un calendrier opérationnel et une analyse des sanctions Article 99, consultez nos ressources dédiées.

Sécurisez votre conformité haut risque

Le pack regulia couvre les 8 catégories de l'Annexe III avec des modèles de documentation technique, registre des systèmes, plan de gestion des risques et procédures de supervision humaine. Documents alignés sur les Articles 9 à 15 du Règlement (UE) 2024/1689.

Recevoir le pack documentaire

12. FAQ

Qu'est-ce qu'un système d'IA de haut risque

Un système d'IA est qualifié haut risque s'il relève de l'Article 6 du Règlement (UE) 2024/1689, soit en tant que composant de sécurité d'un produit listé en Annexe I, soit parce que son cas d'usage figure dans l'un des huit points de l'Annexe III. La qualification déclenche un ensemble d'obligations couvrant gestion des risques, données, documentation, transparence et supervision humaine.

Comment savoir si mon système d'IA est concerné par ces catégories

L'analyse se fait en deux temps. D'abord, lire la finalité prévue (intended purpose) déclarée par le fournisseur — elle est censée trancher la qualification. Ensuite, croiser cette finalité avec les huit points de l'Annexe III, en vérifiant les exclusions de l'Art. 6 §3 (rôle accessoire, tâche procédurale étroite, amélioration d'un travail humain, simple détection de motif). La CNIL et l'AI Office publient des guides d'aide à la qualification ; consultez aussi nos sources officielles.

Quelles sont les sanctions en cas de non-conformité

Pour le non-respect des obligations applicables aux systèmes haut risque (Annexe III), l'Article 99 §4 prévoit des amendes administratives jusqu'à 15 millions d'euros ou 3 % du chiffre d'affaires annuel mondial total de l'exercice précédent, le montant le plus élevé étant retenu. Le plafond de 7 % est réservé aux pratiques interdites de l'Article 5, distinctes des cas d'usage haut risque.

Où trouver de l'aide pour la conformité

Trois ressources publiques de référence : les fiches pratiques de la CNIL sur l'IA, l'AI Act Service Desk de la Commission européenne, et le portail de l'AI Office. Côté professionnel, les guides publiés par le Cigref et Numeum apportent un éclairage opérationnel pour les directions IT et conformité.

Faut-il s'inscrire à l'AI Act Service Desk

L'AI Act Service Desk est un service d'information et d'assistance, pas un registre obligatoire. Aucune inscription n'est exigée. En revanche, l'enregistrement obligatoire des systèmes haut risque s'effectue dans la base de données UE prévue aux Articles 49 et 71, avant la mise sur le marché ou la mise en service.

13. Sources officielles

  • artificialintelligenceact.eu — texte intégral consolidé du Règlement (UE) 2024/1689, version annotée
  • eur-lex.europa.eu — version officielle du Règlement (UE) 2024/1689 et de son Annexe III
  • cnil.fr — fiches pratiques IA, articulation RGPD / AI Act
  • ai-act-service-desk.ec.europa.eu — Commission européenne, AI Office
  • ISO/IEC 42001:2023 — système de management de l'IA
  • ISO/IEC 23894:2023 — gestion des risques liés à l'IA

Cet article fournit des informations générales sur l'EU AI Act applicables aux PME françaises. Il ne constitue pas un conseil juridique. Pour toute décision opérationnelle, faites valider votre démarche par votre DPO ou conseil juridique. regulia décline toute responsabilité quant à l'usage qui peut être fait de ces informations.