L'essentiel en 30 secondes - ISO/IEC 42001:2023 exige une évaluation documentée des risques pour tout système d'IA déployé en production. - La méthode V × S × R croise Vulnérabilité, Sévérité et Risque résultant pour prioriser les actions correctives. - L'Article 9 du Règlement (UE) 2024/1689 impose un système de gestion des risques pour les IA à haut risque. - L'Article 22 du RGPD encadre les décisions individuelles automatisées et déclenche souvent une AIPD préalable. - Les sanctions de l'Article 99 du Règlement (UE) 2024/1689 atteignent jusqu'à 7 % du chiffre d'affaires mondial. - Une PME de 50 salariés peut conduire une évaluation V × S × R complète en 3 à 5 jours-homme.
L'évaluation des risques n'est pas un exercice théorique. C'est l'étape qui détermine si votre système d'IA peut être déployé, sous quelles conditions, et avec quels contrôles. Cet article détaille la méthode V × S × R alignée sur ISO/IEC 42001:2023, applicable directement par une PME française sans expertise normative préalable.
1. ISO 42001 : cadre réglementaire pour les PME
ISO/IEC 42001:2023, publiée en décembre 2023, est la première norme internationale dédiée aux systèmes de management de l'intelligence artificielle (AIMS). Elle s'inscrit dans la même famille structurelle qu'ISO/IEC 27001:2022, ce qui facilite son intégration pour les PME déjà certifiées sécurité de l'information.
La norme couvre l'ensemble du cycle de vie d'un système d'IA : conception, données d'entraînement, déploiement, surveillance et retrait. Elle exige une appréciation des risques documentée, périodiquement révisée, et alignée sur les obligations légales applicables.
Pour une PME française, trois textes convergent et imposent une démarche d'évaluation des risques :
| Référentiel | Périmètre | Obligation d'évaluation |
|---|---|---|
| ISO/IEC 42001:2023 | Management des systèmes d'IA | Clauses 6.1.2 et 8.3 — appréciation et traitement des risques |
| Règlement (UE) 2024/1689 (AI Act) | Systèmes d'IA à haut risque | Art. 9 — système de gestion des risques continu |
| RGPD | Traitements automatisés de données personnelles | Art. 35 — AIPD si risque élevé |
La convergence est nette : un système d'IA à haut risque traitant des données personnelles déclenche simultanément les trois obligations. L'avantage d'ISO 42001 est de fournir une méthodologie unifiée qui satisfait les exigences documentaires des trois cadres.
Pour comprendre quels systèmes relèvent du haut risque et déclenchent ces obligations, consultez notre guide AI Act pour PME françaises.
2. La méthode V × S × R : définition et objectif
La méthode V × S × R structure l'appréciation des risques en trois variables quantifiées sur une échelle de 1 à 5. Elle s'inspire des matrices classiques en sécurité de l'information (ISO/IEC 27005) adaptées aux spécificités des systèmes d'IA.
V (Vulnérabilité) mesure la probabilité qu'une faiblesse du système soit exploitée ou se matérialise. Elle intègre la qualité des données d'entraînement, la robustesse du modèle, la sécurité technique et les processus de gouvernance.
S (Sévérité) mesure l'impact si la vulnérabilité se matérialise. Elle agrège l'impact juridique, économique, opérationnel et réputationnel sur les parties prenantes.
R (Risque résultant) est le produit V × S, exprimé sur une échelle de 1 à 25. Il sert de base à la priorisation des actions correctives et à la décision de déploiement.
L'objectif opérationnel est triple : quantifier pour comparer entre systèmes, documenter pour démontrer la conformité auprès des autorités, et prioriser pour allouer les ressources limitées d'une PME.
3. Étape 1 : identification des vulnérabilités (V)
L'identification des vulnérabilités commence par un inventaire systématique des points de défaillance. ISO/IEC 42001:2023, annexe B, propose une typologie en quatre catégories.
Vulnérabilités liées aux données. Biais dans les jeux d'entraînement, qualité des étiquettes, représentativité démographique, fraîcheur des données. Une PME utilisant des données historiques de plus de 5 ans s'expose à un biais temporel marqué.
Vulnérabilités liées au modèle. Surapprentissage, sensibilité aux attaques adverses, opacité décisionnelle, dérive en production. Un modèle non monitoré peut perdre 15 à 30 % de performance en six mois selon les benchmarks publiés par l'AI Office EU.
Vulnérabilités liées aux processus. Absence de revue humaine, défaut de procédure de mise à jour, gouvernance floue, journalisation insuffisante. L'Art. 14 du Règlement (UE) 2024/1689 exige une supervision humaine effective pour les IA à haut risque.
Vulnérabilités liées à l'infrastructure. Sécurité des accès, exposition des API, intégrité des modèles déployés, traçabilité des versions.
L'échelle V se cote ainsi :
| Niveau V | Description | Probabilité indicative |
|---|---|---|
| 1 — Très faible | Vulnérabilité théorique, contrôles robustes en place | < 5 % |
| 2 — Faible | Vulnérabilité connue, contrôles partiels | 5-20 % |
| 3 — Moyen | Vulnérabilité documentée, contrôles à renforcer | 20-50 % |
| 4 — Élevé | Vulnérabilité avérée, contrôles insuffisants | 50-80 % |
| 5 — Très élevé | Vulnérabilité exploitée ou imminente | > 80 % |
4. Étape 2 : évaluation de la sévérité (S)
La sévérité se mesure par l'impact agrégé sur quatre dimensions. La cotation retient le score maximal des quatre dimensions, et non leur moyenne — un seul impact catastrophique justifie une note de 5.
Impact juridique. Sanctions Art. 99 du Règlement (UE) 2024/1689, amendes CNIL au titre du RGPD (jusqu'à 4 % du CA mondial), responsabilité civile, mise en demeure. Une violation d'interdiction de l'Art. 5 (scoring social, manipulation) atteint le plafond de 35 M€ ou 7 % du CA mondial.
Impact économique. Coût direct (remédiation, audit externe, indemnisation des personnes affectées), coût indirect (perte de contrats, prime d'assurance), interruption d'activité.
Impact opérationnel. Indisponibilité du service, dégradation de la qualité décisionnelle, charge de remédiation manuelle, désorganisation des équipes.
Impact sur les personnes. Discrimination, atteinte aux droits fondamentaux, perte de chance (emploi, crédit, soins), atteinte à la vie privée.
| Niveau S | Critère juridique | Critère économique | Critère humain |
|---|---|---|---|
| 1 — Mineur | Sans sanction | < 5 000 € | Inconfort temporaire |
| 2 — Modéré | Mise en garde | 5 000 — 50 000 € | Préjudice réversible |
| 3 — Significatif | Mise en demeure | 50 000 — 500 000 € | Préjudice notable |
| 4 — Majeur | Sanction administrative | 500 000 — 5 M€ | Préjudice durable |
| 5 — Critique | Sanction maximale Art. 99 | > 5 M€ ou survie de l'entreprise | Atteinte aux droits fondamentaux |
Le détail des sanctions par catégorie d'infraction est exposé dans notre article Sanctions AI Act et amendes pour PME.
Vous souhaitez sécuriser votre démarche ISO 42001 ?
Recevez le pack documentaire regulia : matrice V × S × R Excel, modèles de politique IA et registre des systèmes, alignés sur ISO/IEC 42001:2023 et le Règlement (UE) 2024/1689.
Demander le pack documentaire5. Étape 3 : calcul du risque (R)
Le risque R est le produit arithmétique V × S, sur une échelle de 1 à 25. Cette quantification permet une lecture immédiate et une comparaison entre systèmes.
| Plage R | Niveau | Décision opérationnelle |
|---|---|---|
| 1 — 4 | Acceptable | Acceptation avec surveillance annuelle |
| 5 — 9 | Modéré | Traitement sous 6 mois, revue semestrielle |
| 10 — 14 | Élevé | Traitement sous 3 mois, revue trimestrielle |
| 15 — 19 | Critique | Traitement immédiat, déploiement conditionnel |
| 20 — 25 | Inacceptable | Suspension du système jusqu'à remédiation |
L'interprétation s'aligne sur la clause 6.1.3 d'ISO/IEC 42001:2023, qui exige une politique formelle de traitement des risques : éviter, réduire, transférer ou accepter. La décision doit être documentée et signée par la direction.
Exemple comparatif. Un système IA de recommandation interne (V = 2, S = 2) donne R = 4 — acceptable. Le même algorithme appliqué à la sélection de candidats (V = 4, S = 4) donne R = 16 — critique, car l'Art. 6 et l'Annexe III du Règlement (UE) 2024/1689 classent le recrutement automatisé en haut risque.
6. Cas pratique : PME française de 50 salariés
Une PME du secteur services numériques déploie un système IA d'aide à la présélection de CV. Le cabinet RH externe a fourni l'outil ; la PME l'utilise sans personnalisation.
Identification des vulnérabilités (V = 4).
Le modèle est entraîné sur les données historiques de recrutement du cabinet, couvrant 2018-2023. Trois faiblesses sont identifiées :
- Représentativité : les données historiques reflètent les biais de recrutement passés (déséquilibre de genre sur certains postes techniques).
- Absence d'explication des décisions : l'outil produit un score sans justification interprétable.
- Pas de revue humaine systématique : 70 % des CV rejetés ne sont jamais lus.
La cote V = 4 reflète une vulnérabilité avérée avec des contrôles insuffisants.
Évaluation de la sévérité (S = 4).
L'impact agrégé est majeur :
- Juridique : Art. 22 du RGPD (décision individuelle automatisée), Art. 6 et Annexe III point 4 du Règlement (UE) 2024/1689 (recrutement = haut risque), sanction CNIL potentielle.
- Humain : perte de chance pour les candidats discriminés, atteinte à l'égalité de traitement.
- Économique : coût d'indemnisation, audit externe (estimation 30 000 à 80 000 € [à vérifier selon prestataire]).
Calcul du risque (R = 16).
R = 4 × 4 = 16 — niveau critique. Le système ne peut pas être maintenu en l'état. Trois actions correctives sont engagées :
- Réintégration d'une revue humaine systématique pour chaque CV rejeté (réduction de V de 4 à 2).
- Audit externe du modèle pour détection de biais et publication d'une fiche d'information conforme à l'Art. 13 du Règlement (UE) 2024/1689.
- Réalisation d'une AIPD au titre de l'Art. 35 du RGPD, validée par le DPO.
Après remédiation, V passe à 2, S reste à 4 (l'impact théorique demeure), R = 8 — modéré, déploiement maintenu sous surveillance trimestrielle.
7. Intégration avec EU AI Act et RGPD
ISO 42001 ne remplace pas les obligations légales : elle fournit le cadre méthodologique pour les satisfaire.
Alignement avec le Règlement (UE) 2024/1689. L'Art. 9 exige un « système de gestion des risques » pour les IA à haut risque, défini comme « un processus continu et itératif planifié et exécuté tout au long du cycle de vie d'un système d'IA à haut risque ». La méthode V × S × R répond directement à cette exigence si elle est documentée, révisée et auditable.
Alignement avec le RGPD. L'Art. 35 impose une AIPD lorsque le traitement est susceptible d'engendrer un risque élevé. L'Art. 22 encadre les décisions automatisées produisant des effets juridiques. Une matrice V × S × R bien documentée alimente directement l'AIPD et démontre la responsabilité (Art. 5.2 RGPD).
Convergence pratique. Un même registre des systèmes IA, tenu selon ISO 42001 clause 7.5, peut servir de support à l'enregistrement Art. 49 du Règlement (UE) 2024/1689 (base de données européenne) et au registre des traitements Art. 30 du RGPD.
| Obligation | Source | Élément V × S × R utilisé |
|---|---|---|
| Système de gestion des risques | Art. 9 Règl. (UE) 2024/1689 | Matrice complète, révision périodique |
| Documentation technique | Art. 11 + Annexe IV Règl. (UE) 2024/1689 | Justification des cotations V et S |
| AIPD | Art. 35 RGPD | Score S (impact sur les personnes) |
| Information des personnes | Art. 13 Règl. (UE) 2024/1689 | Synthèse pédagogique de R |
| Surveillance post-commercialisation | Art. 72 Règl. (UE) 2024/1689 | Révision périodique de V |
Le glossaire regulia détaille chaque notion technique citée dans ce tableau.
8. Outils et ressources pratiques
Une PME peut conduire une évaluation V × S × R sans logiciel spécialisé. Trois outils suffisent pour démarrer.
Matrice V × S × R sur tableur. Une feuille de calcul structurée par système IA, avec colonnes : identifiant, finalité, base légale, vulnérabilités identifiées, cote V, impacts identifiés, cote S, R calculé, actions correctives, propriétaire, échéance, statut.
Checklist d'évaluation CNIL. La CNIL publie depuis avril 2024 treize fiches pratiques sur l'IA, dont plusieurs alimentent directement la cotation V (qualité des données, exactitude, sécurité). La méthodologie AIPD de la CNIL reste la référence pour la cotation S.
Outil de classification AI Office EU. L'AI Act Service Desk de la Commission européenne propose un outil de qualification du niveau de risque réglementaire (interdit, haut risque, risque limité, risque minimal). Ce préalable détermine l'intensité de la démarche V × S × R.
Pour aller plus loin, ISO/IEC 23894:2023 (lignes directrices spécifiques sur la gestion des risques liés à l'IA) fournit des éléments complémentaires à la clause 6.1 d'ISO/IEC 42001:2023.
Pack documentaire regulia ISO 42001 + AI Act
Accédez à la matrice V × S × R préformatée, à la politique de management de l'IA, à l'AIPD spécifique IA et au registre des systèmes — 100 % personnalisable et aligné sur les exigences 2024-2026.
Recevoir le packFAQ
Quelle est la différence entre ISO 42001 et l'EU AI Act ?
ISO/IEC 42001:2023 est une norme internationale volontaire de management des systèmes d'IA. Le Règlement (UE) 2024/1689 est un texte législatif d'application directe dans l'Union européenne, contraignant pour tout système d'IA mis sur le marché ou utilisé en UE. La norme fournit un cadre méthodologique ; le règlement fixe les obligations légales. Une PME conforme ISO 42001 satisfait une grande partie des exigences documentaires de l'Art. 17 du règlement, mais la certification ISO ne dispense pas du marquage CE et de l'enregistrement Art. 49 pour les systèmes à haut risque.
Combien coûte une certification ISO 42001 pour une PME ?
Le budget total se situe généralement entre 15 000 € et 50 000 € pour une PME de 50 à 250 salariés [à vérifier auprès des organismes certificateurs accrédités COFRAC]. Il intègre la mise en place du système de management (interne ou avec accompagnement), l'audit à blanc, et l'audit de certification par un organisme accrédité. Le coût varie selon la complexité du périmètre, le nombre de systèmes IA couverts, et la maturité préalable en matière de management qualité ou sécurité de l'information.
Quels sont les risques majeurs pour les PME en IA ?
Trois familles de risques dominent : les biais algorithmiques affectant la non-discrimination (recrutement, accès au crédit, soins), les violations de données personnelles déclenchant l'Art. 33 du RGPD, et les erreurs de classification produisant des décisions erronées. La CNIL a publié plusieurs mises en demeure en 2024-2025 concernant des usages d'IA insuffisamment encadrés [chiffres précis à vérifier dans le rapport annuel CNIL].
Comment identifier les systèmes IA de haut risque ?
L'Art. 6 du Règlement (UE) 2024/1689 définit deux voies de qualification. Première voie : le système est un composant de sécurité d'un produit soumis à la législation européenne d'harmonisation (Annexe I). Seconde voie : le système relève d'un des huit domaines listés à l'Annexe III (biométrie, infrastructures critiques, éducation, emploi, accès aux services essentiels, application de la loi, migration, justice et démocratie). L'outil de classification de l'AI Act Service Desk de la Commission européenne permet d'objectiver la qualification.
Quelles sont les étapes pour mettre en œuvre V × S × R ?
La démarche se déroule en cinq étapes : (1) inventorier les systèmes IA et leur finalité ; (2) qualifier chaque système au regard de l'Art. 6 du règlement ; (3) identifier les vulnérabilités selon la typologie ISO/IEC 42001:2023 annexe B et coter V de 1 à 5 ; (4) évaluer la sévérité S sur les dimensions juridique, économique, opérationnelle et humaine ; (5) calculer R, prioriser les actions correctives et documenter les décisions de traitement dans le registre AIMS.
Sources officielles
- Texte consolidé de l'EU AI Act — artificialintelligenceact.eu
- Règlement (UE) 2024/1689 — EUR-Lex
- Rapport annuel CNIL sur la protection des données
- AI Act Service Desk — Commission européenne
- ISO/IEC 42001:2023 — Information technology — Artificial intelligence — Management system
- Sources documentaires regulia
Cet article fournit des informations générales sur l'EU AI Act applicables aux PME françaises. Il ne constitue pas un conseil juridique. Pour toute décision opérationnelle, faites valider votre démarche par votre DPO ou conseil juridique. regulia décline toute responsabilité quant à l'usage qui peut être fait de ces informations.