Méta description : Guide pratique pour les PME françaises sur la classification des systèmes d'IA haut-risque selon l'AI Act, avec exemples concrets et outils officiels.
L'essentiel en 30 secondes
- L'Article 6 du Règlement (UE) 2024/1689 définit trois niveaux de risque : haut-risque, risque limité, risque minimal.
- L'Annexe III liste les domaines où un système d'IA est présumé haut-risque (recrutement, santé, justice, infrastructures critiques, etc.).
- Tout système haut-risque déclenche une évaluation de conformité (Art. 43) et une documentation technique (Art. 11).
- La mauvaise classification expose la PME à des sanctions allant jusqu'à 35 M€ ou 7 % du chiffre d'affaires mondial (Art. 99).
- Le service desk de la Commission européenne (ai-act-service-desk.ec.europa.eu) répond gratuitement aux questions de classification.
- regulia fournit un pack documentaire de classification, mais la décision finale relève du fournisseur ou du déployeur.
1. Pourquoi la classification est cruciale pour les PME
La classification d'un système d'IA détermine la totalité des obligations qui pèsent sur la PME. Sans classification, impossible de savoir si vous devez tenir un registre, conduire une AIPD, ou notifier l'autorité de surveillance. La classification est l'acte fondateur de votre conformité.
Pour une PME française, l'enjeu dépasse la seule conformité juridique. Une mauvaise classification expose à des contrôles de la DGCCRF, de la CNIL ou des autorités sectorielles (ACPR, ANSM, ARCEP). Ces contrôles peuvent intervenir dès le 2 août 2026, date d'application des obligations sur les systèmes haut-risque.
La classification engage aussi votre stratégie d'investissement. Un système haut-risque exige un budget conformité substantiel : évaluation, documentation, surveillance post-déploiement, audits. Si vous classez par défaut tous vos systèmes en haut-risque, vous surinvestissez. Si vous sous-classez, vous risquez l'amende.
Voici les quatre raisons opérationnelles de classer correctement :
- Détermination des obligations légales : RGPD (Article 35), AI Act (Articles 8 à 21), normes sectorielles (DM, services financiers).
- Préparation aux audits : les autorités de surveillance demandent la documentation de classification dès la première inspection.
- Évitement des sanctions : le Règlement (UE) 2024/1689 prévoit jusqu'à 35 M€ ou 7 % du CA mondial annuel pour les pratiques interdites (Art. 99).
- Pilotage budgétaire : un système haut-risque représente entre 30 000 € et 150 000 € de coûts de mise en conformité [à vérifier selon le secteur].
Pour le contexte général, consultez notre guide AI Act pour les PME françaises.
2. Les trois catégories de systèmes d'IA selon l'AI Act
Le Règlement (UE) 2024/1689 retient une approche par les risques. Trois grandes catégories structurent le texte. Une quatrième catégorie — les pratiques interdites de l'Article 5 — sort du champ de la classification puisqu'elle est tout simplement prohibée.
| Catégorie | Définition | Articles applicables | Niveau d'obligation |
|---|---|---|---|
| Risque inacceptable | Pratiques interdites (notation sociale, manipulation comportementale) | Art. 5 | Interdiction totale |
| Haut-risque | Systèmes listés à l'Annexe III ou couverts par l'Art. 6 §1 | Art. 6 à 49 | Conformité complète |
| Risque limité | IA générative, deepfakes, chatbots | Art. 50 | Transparence |
| Risque minimal | Filtres anti-spam, jeux vidéo, IA de loisir | — | Aucune obligation contraignante |
L'Article 6 organise la frontière entre haut-risque et autres catégories. Il distingue deux voies vers le haut-risque :
- Voie produit (Art. 6 §1) : le système est un composant de sécurité d'un produit déjà soumis à une législation d'harmonisation listée à l'Annexe I (dispositifs médicaux, machines, jouets, équipements radio).
- Voie usage (Art. 6 §2) : le système relève d'un domaine listé à l'Annexe III du Règlement.
Cette double porte d'entrée est la source la plus fréquente d'erreurs de classification. Une PME peut être fournisseur d'un dispositif médical et oublier que son IA embarquée tombe automatiquement en haut-risque, indépendamment de l'usage.
3. Les domaines de l'Annexe III : systèmes haut-risque par usage
L'Annexe III du Règlement (UE) 2024/1689 liste huit grands domaines dans lesquels un système d'IA est présumé haut-risque. Chaque domaine se subdivise en cas d'usage précis. Le total des cas d'usage explicitement énumérés avoisine la trentaine [à vérifier — la liste évolue par actes délégués].
| Domaine Annexe III | Exemples de systèmes concernés | Risque principal |
|---|---|---|
| 1. Identification biométrique à distance | Reconnaissance faciale dans l'espace public | Atteinte à la vie privée |
| 2. Infrastructures critiques | Gestion du trafic routier, eau, énergie | Sécurité physique |
| 3. Éducation et formation professionnelle | Notation automatisée, détection de fraude aux examens | Égalité d'accès |
| 4. Emploi et gestion des travailleurs | CV screening, évaluation de performance, attribution de tâches | Discrimination |
| 5. Accès aux services essentiels | Scoring crédit, éligibilité aux prestations sociales, tarification assurance | Exclusion sociale |
| 6. Forces de l'ordre | Évaluation de fiabilité de preuves, profilage | Droits fondamentaux |
| 7. Migration, asile, contrôles aux frontières | Analyse de risque migratoire, traitement des demandes | Droits humains |
| 8. Administration de la justice et processus démocratiques | Aide à la décision judiciaire, modération de campagnes électorales | État de droit |
Pour une PME française, les domaines 3, 4 et 5 concentrent l'essentiel des cas réels. Un cabinet de recrutement utilisant un logiciel de tri de CV fournit un système haut-risque. Un courtier en assurances calculant un score de risque automatisé fournit un système haut-risque. Un organisme de formation notant ses apprenants par IA fournit un système haut-risque.
L'Article 6 §3 introduit une exception importante. Un système relevant d'un domaine Annexe III peut être déclassé si son rôle est purement procédural, accessoire ou s'il ne fait que préparer l'évaluation humaine sans la remplacer. Cette exception doit être documentée par écrit et conservée. Elle ne dispense pas d'enregistrer le système dans la base de données européenne (Art. 49).
4. Critères pour déterminer un système haut-risque
L'Article 6 ne se lit pas isolément. Il faut le croiser avec l'Annexe I, l'Annexe III, le considérant 53, et les lignes directrices de la Commission. Voici la logique opérationnelle de qualification.
Le tableau suivant synthétise les critères :
| Critère | Source juridique | Question à se poser |
|---|---|---|
| Composant de sécurité d'un produit harmonisé | Art. 6 §1, Annexe I | Mon IA est-elle intégrée à un produit déjà soumis au marquage CE ? |
| Domaine Annexe III | Art. 6 §2, Annexe III | Mon usage relève-t-il d'un des huit domaines ? |
| Impact significatif sur la décision finale | Art. 6 §3 | L'IA influence-t-elle de façon déterminante une décision concernant une personne ? |
| Profilage de personnes physiques | Art. 6 §3, dernier alinéa | Mon système réalise-t-il un profilage au sens du RGPD ? |
| Modèle d'IA à usage général intégré | Art. 25, Art. 51 | Mon système intègre-t-il un GPAI à risque systémique ? |
L'Article 6 §3, dernier alinéa, prévoit une règle spéciale : tout système qui réalise un profilage de personnes physiques tombe automatiquement en haut-risque, sans bénéfice de l'exception procédurale. Cette règle vise notamment les outils RH avec scoring comportemental.
Le profilage est défini par renvoi à l'Article 4 §4 du RGPD : « toute forme de traitement automatisé de données à caractère personnel consistant à utiliser ces données pour évaluer certains aspects personnels relatifs à une personne physique ». Une PME qui utilise un outil de notation des candidats franchit donc deux fois le seuil haut-risque : par l'Annexe III §4 et par l'Article 6 §3 dernier alinéa.
Besoin d'une classification fiable de votre système d'IA ?
regulia fournit une grille de classification AI Act validée par des juristes spécialisés, avec arbre de décision Article 6 et modèles de justification écrite. Gain de temps estimé : 8 à 12 heures par système.
Demander le pack classification5. Étapes pour classer un système d'IA
La classification se mène comme un audit. Elle suit une séquence précise et produit une trace écrite opposable. Voici la procédure recommandée pour une PME française.
- Cartographier le système : identifier le fournisseur (qui développe), le déployeur (qui utilise), les utilisateurs finaux, les données traitées, la finalité opérationnelle. Sans cartographie, la classification est aveugle.
- Vérifier les pratiques interdites de l'Article 5 : si le système relève d'une des huit interdictions (notation sociale, manipulation, scraping facial massif), arrêtez immédiatement le projet.
- Tester la voie produit (Art. 6 §1) : votre IA est-elle un composant de sécurité d'un dispositif médical, d'une machine industrielle, d'un jouet, d'un véhicule ? Vérifier l'Annexe I.
- Tester la voie usage (Art. 6 §2) : votre cas d'usage est-il listé à l'Annexe III ? Lire chaque sous-section attentivement, en particulier les rubriques RH et services essentiels.
- Évaluer l'exception Art. 6 §3 : si vous êtes dans l'Annexe III, le système est-il purement procédural, préparatoire, ou redondant avec une décision humaine ? Si oui, documenter par écrit.
- Vérifier le profilage (Art. 6 §3 dernier alinéa) : l'exception ne s'applique pas si vous profilez des personnes physiques.
- Tester le risque limité (Art. 50) : si non haut-risque, votre système est-il un chatbot, un générateur de contenu synthétique, un deepfake ? Obligation de transparence.
- Documenter la décision : produire une note de classification signée, datée, avec les arguments article par article. C'est la pièce maîtresse en cas de contrôle.
- Réévaluer en cas de changement substantiel : modification de la finalité, du périmètre, des données d'entraînement. La classification n'est pas figée.
Cette procédure produit un livrable : la note de classification. Elle doit être versée au registre interne du fournisseur ou du déployeur. En cas de doute, le service desk de la Commission européenne fournit une assistance gratuite.
Pour comprendre le coût des erreurs, lisez notre analyse des sanctions AI Act pour les PME.
6. Obligations pour les systèmes haut-risque
Une fois la classification haut-risque confirmée, les obligations s'enchaînent. Le Règlement organise un système complet de garanties qui couvre l'ensemble du cycle de vie du système.
| Obligation | Article AI Act | Livrable concret |
|---|---|---|
| Système de gestion des risques | Art. 9 | Document de management du risque, mis à jour |
| Gouvernance des données | Art. 10 | Politique de qualité des jeux de données |
| Documentation technique | Art. 11, Annexe IV | Dossier technique conservé 10 ans |
| Tenue de logs | Art. 12 | Journalisation automatique des événements |
| Transparence et information utilisateur | Art. 13 | Notice d'utilisation détaillée |
| Contrôle humain | Art. 14 | Procédures de supervision opérationnelle |
| Précision, robustesse, cybersécurité | Art. 15 | Tests documentés, métriques publiées |
| Évaluation de conformité | Art. 43 | Marquage CE après procédure |
| Enregistrement base de données EU | Art. 49 | Inscription avant mise sur le marché |
| Surveillance post-commercialisation | Art. 72 | Plan de surveillance actif |
Pour les déployeurs (les PME qui utilisent le système sans le développer), les obligations sont allégées mais réelles. Les Articles 26 et 27 imposent notamment :
- Utilisation conforme à la notice fournie par le fournisseur.
- Surveillance du fonctionnement et signalement des incidents graves.
- Pour les autorités publiques et certains acteurs, analyse d'impact sur les droits fondamentaux (Art. 27).
- Information des personnes concernées par une décision prise avec assistance d'un système haut-risque.
L'articulation avec le RGPD reste essentielle. Tout système haut-risque qui traite des données personnelles déclenche une analyse d'impact RGPD (Art. 35 RGPD). La CNIL recommande de fusionner les deux exercices dans un livrable unique pour éviter la redondance documentaire. Pour les définitions, consultez notre glossaire AI Act.
7. Outils et ressources officiels
Les autorités européennes et françaises mettent à disposition plusieurs outils gratuits. Une PME bien équipée peut classer en interne la majorité de ses systèmes courants.
| Ressource | Utilité | Lien |
|---|---|---|
| AI Act Service Desk (Commission EU) | Réponses individuelles aux questions de classification | ai-act-service-desk.ec.europa.eu |
| Texte consolidé sur EUR-Lex | Référence juridique opposable | eur-lex.europa.eu/eli/reg/2024/1689 |
| artificialintelligenceact.eu | Texte commenté, navigateur d'articles, outils de compliance | artificialintelligenceact.eu |
| Fiches pratiques CNIL | 13 fiches sur l'IA et le RGPD | cnil.fr/fr/les-fiches-pratiques-ia |
| Guide Cigref janvier 2025 | Lecture grands comptes adaptable PME | cigref.fr |
| Guide Numeum mars 2025 | Approche fournisseurs IT | numeum.fr |
Le service desk européen est sous-utilisé par les PME françaises. Il accepte les questions en français et répond dans un délai de quelques jours ouvrés [à vérifier]. Sa réponse n'a pas valeur d'avis juridique contraignant mais constitue une pièce utile dans un dossier de bonne foi.
La CNIL publie des fiches sectorielles régulièrement actualisées. Les fiches « Recrutement et IA », « IA et sécurité » et « Constituer une base de données d'apprentissage » sont particulièrement utiles pour les PME. Pour la liste complète des sources que nous recommandons, consultez notre page sources officielles.
8. Exemples concrets pour les PME
Rien ne vaut le cas pratique pour comprendre les frontières de l'Article 6. Voici quatre exemples typiques de PME françaises et leur classification justifiée.
| Cas d'usage PME | Classification | Justification |
|---|---|---|
| Logiciel de tri automatique de CV (RH) | Haut-risque | Annexe III §4 (emploi) + profilage Art. 6 §3 |
| Chatbot de service client (assistance produit) | Risque limité | Art. 50 §1 — obligation d'informer l'utilisateur qu'il dialogue avec une IA |
| Logiciel de prévision de stocks | Risque minimal | Hors Annexe III, hors Art. 5 — aucune obligation contraignante |
| Outil d'aide au diagnostic médical (DM logiciel) | Haut-risque | Art. 6 §1 + Annexe I (Règlement DM 2017/745) |
| Scoring d'éligibilité crédit personnel | Haut-risque | Annexe III §5 (b) — accès services financiers |
| Filtre anti-spam email | Risque minimal | Hors Annexe III |
| Générateur d'images marketing (IA générative) | Risque limité | Art. 50 §2 — obligation de marquage du contenu synthétique |
| Système de surveillance vidéo intelligente | Variable | Si reconnaissance biométrique : Annexe III §1 |
Cas 1 : la PME de recrutement. Un cabinet de 25 salariés utilise un outil SaaS qui note les CV et les classe par adéquation au poste. Le système relève de l'Annexe III §4 (a) et (b). Le profilage est constitutif. Conclusion : haut-risque. Le cabinet est déployeur ; le SaaS est fournisseur. Les obligations se répartissent : le SaaS conduit l'évaluation de conformité, la PME tient le journal d'utilisation et informe les candidats.
Cas 2 : le e-commerçant avec chatbot. Une boutique en ligne déploie un chatbot conversationnel pour répondre aux questions clients. Pas de décision juridique, pas de profilage à finalité d'évaluation. Le système relève de l'Article 50 §1 : risque limité. Une seule obligation forte : informer l'utilisateur qu'il dialogue avec une IA, par un message visible.
Cas 3 : la fintech de scoring crédit. Une PME développe un algorithme qui calcule la probabilité de défaut d'un emprunteur particulier. L'Annexe III §5 (b) qualifie expressément ce cas en haut-risque. La fintech est fournisseur et déployeur. Elle doit cumuler les obligations des Articles 16 et 26. La supervision ACPR ajoute une couche sectorielle.
Cas 4 : le fabricant de dispositif médical. Une medtech produit un logiciel d'aide au diagnostic dermatologique. Le logiciel est un dispositif médical de classe IIa au sens du Règlement (UE) 2017/745. L'Article 6 §1 du Règlement (UE) 2024/1689 le qualifie automatiquement de haut-risque. Le marquage CE existant doit être complété par la procédure d'évaluation de conformité AI Act (Art. 43).
Vos systèmes méritent une classification documentée
Le pack regulia inclut : grille de qualification Art. 6, modèle de note de classification signable, journal de versionning, et templates de notification au service desk. Conçu pour PME 10-250 salariés.
Recevoir le pack documentaire9. FAQ — questions fréquentes des PME
Quelles sont les conséquences si je ne classifie pas correctement mon système d'IA ?
Les sanctions du Règlement (UE) 2024/1689 sont graduées par l'Article 99. Pour les pratiques interdites (Art. 5), l'amende peut atteindre 35 M€ ou 7 % du chiffre d'affaires mondial annuel. Pour les manquements aux obligations applicables aux systèmes haut-risque, le plafond est de 15 M€ ou 3 % du CA. Une PME peut aussi voir son système retiré du marché par l'autorité de surveillance, avec un préjudice opérationnel direct. La mauvaise foi aggrave la sanction.
Comment savoir si mon système d'IA est haut-risque ?
Suivez l'arbre de décision en quatre tests : Article 5 (interdit ?), Article 6 §1 (composant de produit harmonisé ?), Article 6 §2 (domaine Annexe III ?), Article 6 §3 (profilage ou décision déterminante ?). Si vous répondez « oui » à l'un des trois derniers tests, le système est haut-risque. En cas de doute persistant, saisissez le service desk de la Commission via ai-act-service-desk.ec.europa.eu.
Dois-je consulter un expert pour la classification ?
Pour les cas évidents (chatbot, filtre anti-spam, prévision de stocks), une analyse interne suffit. Pour les cas frontaliers — RH, assurance, santé, scoring — le recours à un conseil juridique spécialisé est fortement recommandé. Le coût d'une consultation ciblée (500 à 2 000 € selon le cabinet [à vérifier]) est très inférieur au risque d'amende. Le service desk européen est gratuit et complète utilement l'avis privé.
Quelles sont les différences entre les catégories de systèmes d'IA ?
Les systèmes haut-risque cumulent neuf obligations principales (Art. 8 à 17), un marquage CE et un enregistrement européen. Les systèmes à risque limité doivent uniquement informer l'utilisateur (Art. 50). Les systèmes à risque minimal n'ont aucune obligation contraignante au titre de l'AI Act, mais restent soumis au RGPD si des données personnelles sont traitées. Les pratiques interdites de l'Article 5 sont prohibées sans exception possible.
Comment utiliser l'outil de classification officiel ?
Le compliance checker hébergé sur artificialintelligenceact.eu propose un questionnaire structuré : secteur d'activité, finalité du système, type de données, public cible. L'outil restitue une qualification probable et les articles pertinents. Pour la valeur juridique, doublez l'usage de l'outil par une note de classification signée par votre DPO ou votre conseil. Le service desk officiel de la Commission reste l'unique source autoritative en cas de doute.
10. Sources officielles
- Règlement (UE) 2024/1689 — texte consolidé EUR-Lex
- artificialintelligenceact.eu — texte navigable et compliance checker
- CNIL — page de référence AI Act
- AI Act Service Desk — Commission européenne
- ISO/IEC 42001:2023 — Systèmes de management de l'IA
- ISO/IEC 23894:2023 — Gestion du risque IA
- Cigref, Guide AI Act, janvier 2025
- Numeum, Guide AI Act pour les éditeurs, mars 2025
Disclaimer — Cet article fournit des informations générales sur l'EU AI Act applicables aux PME françaises. Il ne constitue pas un conseil juridique. Pour toute décision opérationnelle, faites valider votre démarche par votre DPO ou conseil juridique. regulia décline toute responsabilité quant à l'usage qui peut être fait de ces informations.