Essayez l'outil gratuitement

Essayer
Domaine 7 · Sûreté, défaillances et limites des systèmes d'IA

7.3Manque de capacité ou de robustesse

Systèmes d'IA qui ne fonctionnent pas de manière fiable ou efficace dans des conditions variables, les exposant à des erreurs et défaillances pouvant avoir des conséquences importantes, particulièrement dans les applications critiques ou les domaines requérant un raisonnement moral.

Cadres légaux applicables

International

NIST AI RMF 1.0Recommandation

Measure 2.5, 2.7

Cadre volontaire de gestion des risques d'IA structuré autour de quatre fonctions : Govern, Map, Measure, Manage. Référence courante en gouvernance d'IA.

ISO/IEC 42001:2023Recommandation

A.6.2.4

Norme certifiable décrivant les exigences pour mettre en place un système de management de l'IA. Pertinente pour les démarches de certification volontaire.

UE

Article 15 (exactitude, robustesse)

Règlement européen établissant un cadre harmonisé pour l'IA, fondé sur une approche par risque (risque inacceptable, élevé, limité, minimal). Pertinent pour les organisations québécoises faisant affaire en UE.

Exemples sectoriels québécois

Transport

TransportConstructeur, fournisseur ADAS

Un système d'aide à la conduite hivernale entraîné principalement sur des conditions sèches échoue sur les routes québécoises lors d'épisodes de verglas.

Banque et assurance

Banque et assuranceInstitution financière

Un modèle de détection de fraude perd brutalement en performance après un changement saisonnier dans les habitudes de consommation, sans alerte automatique.

Mitigations recommandées

  • 2.3Ingénierie de sûreté des modèles

    Méthodes techniques et garde-fous qui encadrent les comportements des modèles et les protègent contre l'exploitation et les vulnérabilités.

  • 3.1Tests et audits

    Évaluations internes et externes systématiques qui examinent les systèmes d'IA, l'infrastructure et les processus de conformité pour identifier les risques, vérifier la sûreté et s'assurer que la performance respecte les normes.

  • 3.4Déploiement par étapes

    Protocoles de mise en œuvre qui déploient les systèmes d'IA par étapes, exigeant une validation de la sûreté avant d'élargir l'accès des utilisateurs ou les capacités.

  • 3.5Surveillance post-déploiement

    Processus de suivi continu du comportement de l'IA, des interactions des utilisateurs et des impacts sociétaux après le déploiement pour détecter les usages abusifs, les capacités dangereuses émergentes et les effets nuisibles.

  • 4.1Documentation des systèmes

    Protocoles de documentation exhaustifs qui consignent les spécifications techniques, les usages prévus, les capacités et les limites des systèmes d'IA pour permettre une évaluation et une gouvernance éclairées.

Évaluez ce risque pour votre cas d'usage

Notre wizard d'évaluation des risques arrive prochainement.

Ce site utilise des cookies essentiels et fonctionnels pour améliorer votre expérience. Politique de confidentialité