Essayez l'outil gratuitement

Essayer
Domaine 3 · Désinformation

3.2Pollution de l'écosystème informationnel et perte de réalité partagée

Désinformation hautement personnalisée générée par l'IA créant des « bulles de filtre » où chacun ne voit que ce qui correspond à ses croyances, érodant la réalité partagée et affaiblissant la cohésion sociale et les processus politiques.

Cadres légaux applicables

Québec

Principes 1 (bien-être) et 5 (participation démocratique)

Déclaration éthique fondée sur 10 principes (bien-être, respect de l'autonomie, protection de la vie privée, etc.). Référence québécoise reconnue.

UE

Article 50 (filigranes)

Règlement européen établissant un cadre harmonisé pour l'IA, fondé sur une approche par risque (risque inacceptable, élevé, limité, minimal). Pertinent pour les organisations québécoises faisant affaire en UE.

Exemples sectoriels québécois

Médias

MédiasSalle de presse

Un quotidien québécois publie sans le vouloir une fausse citation d'une élue, générée par un assistant IA, qui se propage dans les réseaux sociaux avant rétractation.

Mitigations recommandées

  • 2.4Contrôles de sûreté du contenu

    Systèmes et processus techniques qui détectent, filtrent et étiquettent le contenu généré par l'IA pour identifier les usages abusifs et permettre le suivi de provenance du contenu.

  • 3.1Tests et audits

    Évaluations internes et externes systématiques qui examinent les systèmes d'IA, l'infrastructure et les processus de conformité pour identifier les risques, vérifier la sûreté et s'assurer que la performance respecte les normes.

  • 3.5Surveillance post-déploiement

    Processus de suivi continu du comportement de l'IA, des interactions des utilisateurs et des impacts sociétaux après le déploiement pour détecter les usages abusifs, les capacités dangereuses émergentes et les effets nuisibles.

  • 4.2Divulgation des risques

    Protocoles formels de production de rapports et systèmes de notification qui communiquent l'information sur les risques, les plans d'atténuation, les évaluations de sûreté et les activités significatives liées à l'IA pour permettre une supervision externe et informer les parties prenantes.

  • 4.4Divulgation de la gouvernance

    Mécanismes formels de divulgation qui communiquent les structures de gouvernance, les cadres décisionnels et les engagements en matière de sûreté afin d'accroître la transparence et de permettre la supervision externe des décisions d'IA à enjeux élevés.

Évaluez ce risque pour votre cas d'usage

Notre wizard d'évaluation des risques arrive prochainement.

Ce site utilise des cookies essentiels et fonctionnels pour améliorer votre expérience. Politique de confidentialité