Essayez l'outil gratuitement

Essayer
Domaine 1 · Discrimination et toxicité

1.3Performance inégale entre les groupes

L'exactitude et l'efficacité des décisions et actions de l'IA dépendent de l'appartenance à un groupe ; les choix de conception et les biais dans les données d'entraînement entraînent des résultats inégaux, des bénéfices réduits, un effort accru et l'aliénation des utilisateurs.

Cadres légaux applicables

Québec

Articles 10, 16

Loi quasi-constitutionnelle québécoise interdisant la discrimination fondée sur des motifs protégés. Pertinente pour les biais des systèmes d'IA dans l'embauche, l'octroi de crédit, le logement, les services.

Article 12.1

Loi québécoise sur la protection des renseignements personnels en vigueur depuis le 22 septembre 2023, encadrant la collecte, l'utilisation, la communication et la conservation des renseignements personnels par les entreprises et organismes publics. Inclut des obligations sur la prise de décision automatisée (article 12.1).

Canada

Mesures d'atténuation (biais)

Projet de loi fédéral (C-27) introduisant un cadre réglementaire pour les systèmes d'IA à incidence élevée. Crée un Commissaire à l'IA et aux données et impose des obligations d'évaluation, de mitigation et de transparence.

International

NIST AI RMF 1.0Recommandation

Measure 2.11, 2.12

Cadre volontaire de gestion des risques d'IA structuré autour de quatre fonctions : Govern, Map, Measure, Manage. Référence courante en gouvernance d'IA.

Exemples sectoriels québécois

Banque et assurance

Banque et assuranceAssureur sous supervision AMF

Un modèle de tarification d'assurance auto présente des erreurs de prédiction nettement plus élevées pour les conducteurs résidant en région éloignée que pour ceux des grands centres.

Santé et services sociaux

Santé et services sociauxClinique, CISSS

Un outil de détection de mélanomes par image performe moins bien sur les peaux foncées, augmentant les faux négatifs pour cette population.

Mitigations recommandées

  • 1.2Gestion des risques

    Méthodes systématiques permettant d'identifier, d'évaluer et de gérer les risques liés à l'IA, pour une gouvernance complète des risques à l'échelle de l'organisation.

  • 2.2Alignement des modèles

    Méthodes techniques pour s'assurer que les systèmes d'IA comprennent les valeurs et intentions humaines et y adhèrent.

  • 3.1Tests et audits

    Évaluations internes et externes systématiques qui examinent les systèmes d'IA, l'infrastructure et les processus de conformité pour identifier les risques, vérifier la sûreté et s'assurer que la performance respecte les normes.

  • 3.2Gouvernance des données

    Politiques et procédures qui encadrent l'acquisition, la curation et l'utilisation responsables des données afin d'assurer la conformité, la qualité, la confidentialité des utilisateurs et le retrait du contenu nuisible.

  • 4.2Divulgation des risques

    Protocoles formels de production de rapports et systèmes de notification qui communiquent l'information sur les risques, les plans d'atténuation, les évaluations de sûreté et les activités significatives liées à l'IA pour permettre une supervision externe et informer les parties prenantes.

Évaluez ce risque pour votre cas d'usage

Notre wizard d'évaluation des risques arrive prochainement.

Ce site utilise des cookies essentiels et fonctionnels pour améliorer votre expérience. Politique de confidentialité