Cadres légaux applicables
International
Measure 2.5, 2.7
Cadre volontaire de gestion des risques d'IA structuré autour de quatre fonctions : Govern, Map, Measure, Manage. Référence courante en gouvernance d'IA.
A.6.2.4
Norme certifiable décrivant les exigences pour mettre en place un système de management de l'IA. Pertinente pour les démarches de certification volontaire.
UE
Article 15 (exactitude, robustesse)
Règlement européen établissant un cadre harmonisé pour l'IA, fondé sur une approche par risque (risque inacceptable, élevé, limité, minimal). Pertinent pour les organisations québécoises faisant affaire en UE.
Exemples sectoriels québécois
Transport
Un système d'aide à la conduite hivernale entraîné principalement sur des conditions sèches échoue sur les routes québécoises lors d'épisodes de verglas.
Banque et assurance
Un modèle de détection de fraude perd brutalement en performance après un changement saisonnier dans les habitudes de consommation, sans alerte automatique.
Mitigations recommandées
- 2.3Ingénierie de sûreté des modèles
Méthodes techniques et garde-fous qui encadrent les comportements des modèles et les protègent contre l'exploitation et les vulnérabilités.
- 3.1Tests et audits
Évaluations internes et externes systématiques qui examinent les systèmes d'IA, l'infrastructure et les processus de conformité pour identifier les risques, vérifier la sûreté et s'assurer que la performance respecte les normes.
- 3.4Déploiement par étapes
Protocoles de mise en œuvre qui déploient les systèmes d'IA par étapes, exigeant une validation de la sûreté avant d'élargir l'accès des utilisateurs ou les capacités.
- 3.5Surveillance post-déploiement
Processus de suivi continu du comportement de l'IA, des interactions des utilisateurs et des impacts sociétaux après le déploiement pour détecter les usages abusifs, les capacités dangereuses émergentes et les effets nuisibles.
- 4.1Documentation des systèmes
Protocoles de documentation exhaustifs qui consignent les spécifications techniques, les usages prévus, les capacités et les limites des systèmes d'IA pour permettre une évaluation et une gouvernance éclairées.
Évaluez ce risque pour votre cas d'usage
Notre wizard d'évaluation des risques arrive prochainement.