Essayez l'outil gratuitement

Essayer
Domaine 4 · Acteurs malveillants et usages abusifs

4.1Désinformation, surveillance et influence à grande échelle

Utilisation de systèmes d'IA pour mener des campagnes de désinformation à grande échelle, exercer une surveillance malveillante ou conduire une censure et une propagande automatisées, ciblées et sophistiquées, dans le but de manipuler les processus politiques, l'opinion publique et les comportements.

Cadres légaux applicables

Québec

Articles 4, 12 (collecte, communication)

Loi québécoise sur la protection des renseignements personnels en vigueur depuis le 22 septembre 2023, encadrant la collecte, l'utilisation, la communication et la conservation des renseignements personnels par les entreprises et organismes publics. Inclut des obligations sur la prise de décision automatisée (article 12.1).

UE

Article 5 (interdictions notation sociale), Annexe III

Règlement européen établissant un cadre harmonisé pour l'IA, fondé sur une approche par risque (risque inacceptable, élevé, limité, minimal). Pertinent pour les organisations québécoises faisant affaire en UE.

Exemples sectoriels québécois

Services publics

Services publicsÉlu et organismes électoraux

Un acteur étranger utilise des hypertrucages pour influencer une élection municipale au Québec en publiant de fausses déclarations attribuées à des candidats.

Mitigations recommandées

  • 2.3Ingénierie de sûreté des modèles

    Méthodes techniques et garde-fous qui encadrent les comportements des modèles et les protègent contre l'exploitation et les vulnérabilités.

  • 2.4Contrôles de sûreté du contenu

    Systèmes et processus techniques qui détectent, filtrent et étiquettent le contenu généré par l'IA pour identifier les usages abusifs et permettre le suivi de provenance du contenu.

  • 3.3Gestion des accès

    Politiques opérationnelles et systèmes de vérification qui régissent qui peut utiliser les systèmes d'IA et à quelles fins, afin de prévenir le contournement de la sûreté, l'usage abusif délibéré et le déploiement dans des contextes à haut risque.

  • 3.5Surveillance post-déploiement

    Processus de suivi continu du comportement de l'IA, des interactions des utilisateurs et des impacts sociétaux après le déploiement pour détecter les usages abusifs, les capacités dangereuses émergentes et les effets nuisibles.

  • 4.3Signalement des incidents

    Processus et protocoles formels qui documentent et partagent les incidents de sûreté de l'IA, les brèches de sécurité, les quasi-incidents et les renseignements de menaces pertinents avec les parties prenantes appropriées pour permettre des réponses coordonnées et des améliorations systémiques.

Évaluez ce risque pour votre cas d'usage

Notre wizard d'évaluation des risques arrive prochainement.

Ce site utilise des cookies essentiels et fonctionnels pour améliorer votre expérience. Politique de confidentialité