Cadres légaux applicables
Québec
Articles 10, 16, 18.2 (discrimination dans le travail, le logement, les services)
Loi quasi-constitutionnelle québécoise interdisant la discrimination fondée sur des motifs protégés. Pertinente pour les biais des systèmes d'IA dans l'embauche, l'octroi de crédit, le logement, les services.
Article 12.1 (décision automatisée), article 14 (information de la personne concernée)
Loi québécoise sur la protection des renseignements personnels en vigueur depuis le 22 septembre 2023, encadrant la collecte, l'utilisation, la communication et la conservation des renseignements personnels par les entreprises et organismes publics. Inclut des obligations sur la prise de décision automatisée (article 12.1).
Principe 6 (équité)
Déclaration éthique fondée sur 10 principes (bien-être, respect de l'autonomie, protection de la vie privée, etc.). Référence québécoise reconnue.
Canada
Évaluation des incidences, mesures d'atténuation pour systèmes à incidence élevée
Projet de loi fédéral (C-27) introduisant un cadre réglementaire pour les systèmes d'IA à incidence élevée. Crée un Commissaire à l'IA et aux données et impose des obligations d'évaluation, de mitigation et de transparence.
International
Govern 1.4, Measure 2.11 (équité)
Cadre volontaire de gestion des risques d'IA structuré autour de quatre fonctions : Govern, Map, Measure, Manage. Référence courante en gouvernance d'IA.
UE
Annexe III (recrutement, crédit, services publics) ; obligations art. 9-15 pour systèmes à haut risque
Règlement européen établissant un cadre harmonisé pour l'IA, fondé sur une approche par risque (risque inacceptable, élevé, limité, minimal). Pertinent pour les organisations québécoises faisant affaire en UE.
Exemples sectoriels québécois
Banque et assurance
Un algorithme d'octroi de crédit d'une caisse populaire refuse systématiquement plus souvent les demandes provenant de codes postaux à forte concentration de minorités visibles, créant une forme de discrimination indirecte au sens de la Charte.
Santé et services sociaux
Un outil d'IA de triage en urgence sous-évalue la gravité des symptômes chez les femmes en raison d'un jeu d'entraînement biaisé, retardant leur prise en charge.
Services publics
Un système d'attribution automatisée de logements sociaux d'un OMH applique des règles qui défavorisent les familles monoparentales sans justification statistique.
Manufacturier et RH
Un outil de filtrage des CV utilisé par un manufacturier de l'Estrie pénalise les candidatures de personnes issues de l'immigration récente sur la base d'une corrélation fortuite entre lieu d'études et performance passée.
Mitigations recommandées
- 1.2Gestion des risques
Méthodes systématiques permettant d'identifier, d'évaluer et de gérer les risques liés à l'IA, pour une gouvernance complète des risques à l'échelle de l'organisation.
- 2.2Alignement des modèles
Méthodes techniques pour s'assurer que les systèmes d'IA comprennent les valeurs et intentions humaines et y adhèrent.
- 3.1Tests et audits
Évaluations internes et externes systématiques qui examinent les systèmes d'IA, l'infrastructure et les processus de conformité pour identifier les risques, vérifier la sûreté et s'assurer que la performance respecte les normes.
- 3.2Gouvernance des données
Politiques et procédures qui encadrent l'acquisition, la curation et l'utilisation responsables des données afin d'assurer la conformité, la qualité, la confidentialité des utilisateurs et le retrait du contenu nuisible.
- 4.2Divulgation des risques
Protocoles formels de production de rapports et systèmes de notification qui communiquent l'information sur les risques, les plans d'atténuation, les évaluations de sûreté et les activités significatives liées à l'IA pour permettre une supervision externe et informer les parties prenantes.
Évaluez ce risque pour votre cas d'usage
Notre wizard d'évaluation des risques arrive prochainement.