Essayez l'outil gratuitement

Essayer
Domaine 3 · Désinformation

3.1Information fausse ou trompeuse

Systèmes d'IA qui génèrent ou diffusent involontairement des informations incorrectes ou trompeuses, ce qui peut induire de fausses croyances chez les utilisateurs et compromettre leur autonomie. Les humains qui prennent des décisions à partir de fausses croyances peuvent subir des préjudices physiques, émotionnels ou matériels.

Cadres légaux applicables

Québec

Principe 4 (responsabilité), Principe 8 (prudence)

Déclaration éthique fondée sur 10 principes (bien-être, respect de l'autonomie, protection de la vie privée, etc.). Référence québécoise reconnue.

Canada

Transparence et explication des décisions

Projet de loi fédéral (C-27) introduisant un cadre réglementaire pour les systèmes d'IA à incidence élevée. Crée un Commissaire à l'IA et aux données et impose des obligations d'évaluation, de mitigation et de transparence.

UE

Article 50 (étiquetage des contenus IA)

Règlement européen établissant un cadre harmonisé pour l'IA, fondé sur une approche par risque (risque inacceptable, élevé, limité, minimal). Pertinent pour les organisations québécoises faisant affaire en UE.

Exemples sectoriels québécois

Services publics

Services publicsMinistère ou organisme public

Un chatbot d'un ministère cite à tort un règlement abrogé en réponse à une question d'un citoyen sur ses droits, créant un risque juridique pour l'organisation.

Éducation

ÉducationUniversité

Un outil d'aide à la rédaction génère des références bibliographiques fictives utilisées par un étudiant universitaire dans un travail.

Mitigations recommandées

  • 2.2Alignement des modèles

    Méthodes techniques pour s'assurer que les systèmes d'IA comprennent les valeurs et intentions humaines et y adhèrent.

  • 2.4Contrôles de sûreté du contenu

    Systèmes et processus techniques qui détectent, filtrent et étiquettent le contenu généré par l'IA pour identifier les usages abusifs et permettre le suivi de provenance du contenu.

  • 3.1Tests et audits

    Évaluations internes et externes systématiques qui examinent les systèmes d'IA, l'infrastructure et les processus de conformité pour identifier les risques, vérifier la sûreté et s'assurer que la performance respecte les normes.

  • 3.2Gouvernance des données

    Politiques et procédures qui encadrent l'acquisition, la curation et l'utilisation responsables des données afin d'assurer la conformité, la qualité, la confidentialité des utilisateurs et le retrait du contenu nuisible.

  • 4.1Documentation des systèmes

    Protocoles de documentation exhaustifs qui consignent les spécifications techniques, les usages prévus, les capacités et les limites des systèmes d'IA pour permettre une évaluation et une gouvernance éclairées.

Évaluez ce risque pour votre cas d'usage

Notre wizard d'évaluation des risques arrive prochainement.

Ce site utilise des cookies essentiels et fonctionnels pour améliorer votre expérience. Politique de confidentialité