Référentiel des risques de l'intelligence artificielle
Explorez les 7 domaines et 24 sous-domaines de risques de l'IA, avec leurs cadres légaux applicables (Loi 25, AIDA, NIST AI RMF...) et des exemples sectoriels québécois.
Les 7 domaines de risques
Discrimination et toxicité
Risques liés à des systèmes d'IA qui discriminent, déforment la représentation des personnes ou exposent les utilisateurs à du contenu toxique.
Vie privée et sécurité
Risques liés à des systèmes d'IA qui compromettent la vie privée ou présentent des vulnérabilités de sécurité.
Désinformation
Risques liés à des systèmes d'IA qui génèrent ou diffusent de fausses informations.
Acteurs malveillants et usages abusifs
Risques liés à l'usage intentionnellement abusif de systèmes d'IA par des acteurs malveillants.
Interaction humain-IA
Risques liés à la façon dont les humains interagissent avec les systèmes d'IA et s'y fient.
Enjeux socioéconomiques et environnementaux
Risques liés aux impacts sociétaux, économiques et environnementaux de l'IA.
Sûreté, défaillances et limites des systèmes d'IA
Risques liés aux défaillances des systèmes d'IA, au désalignement et aux limites techniques.
Provenance des données
Le référentiel est basé sur le AI Risk Repository (Slattery et al., 2024) du MIT FutureTech. L'adaptation québécoise (mapping Loi 25, AIDA, NIST, ISO 42001, AI Act, etc.) est produite par l'équipe gouvernance.ai.
- AI Risk Repository (Référentiel des risques d'IA) : 1 595 entrées de risque — source
- AI Incident Tracker (Suivi des incidents d'IA) : 1 366 incidents — source
- Governance Mapping (Cartographie de la gouvernance) : 1 032 documents — source
- Mitigation Database (Base de mitigations) : 831 mitigations — source