Essayez l'outil gratuitement

Essayer
Domaine 4 · Acteurs malveillants et usages abusifs

4.3Fraude, escroqueries et manipulation ciblée

Utilisation de systèmes d'IA pour obtenir un avantage personnel sur autrui par la triche, la fraude, l'escroquerie, le chantage ou la manipulation ciblée des croyances ou comportements. Exemples : plagiat facilité par l'IA dans la recherche ou l'éducation, usurpation d'une personne réelle ou fictive à des fins financières illégitimes, ou création d'images humiliantes ou sexuelles.

Cadres légaux applicables

Québec

Attentes en matière de prévention de la fraude par IA

Ligne directrice et attentes de l'AMF concernant l'utilisation de l'IA par les institutions financières et les assureurs au Québec, axée sur la gouvernance, la gestion des risques, l'équité et la transparence.

Article 10 (sécurité), article 3.5 (incidents)

Loi québécoise sur la protection des renseignements personnels en vigueur depuis le 22 septembre 2023, encadrant la collecte, l'utilisation, la communication et la conservation des renseignements personnels par les entreprises et organismes publics. Inclut des obligations sur la prise de décision automatisée (article 12.1).

UE

Article 50 (transparence sur l'usage de l'IA)

Règlement européen établissant un cadre harmonisé pour l'IA, fondé sur une approche par risque (risque inacceptable, élevé, limité, minimal). Pertinent pour les organisations québécoises faisant affaire en UE.

Exemples sectoriels québécois

Banque et assurance

Banque et assuranceInstitution financière

Des fraudeurs utilisent un clonage vocal IA pour usurper l'identité d'un client et autoriser un virement de plusieurs milliers de dollars depuis un compte au Québec.

Particuliers et services publics

Particuliers et services publicsPublic, organismes communautaires

Une vague d'arnaques par hypertrucage cible des aînés au Québec en imitant la voix d'un proche en détresse et en demandant un transfert d'urgence.

Mitigations recommandées

  • 2.3Ingénierie de sûreté des modèles

    Méthodes techniques et garde-fous qui encadrent les comportements des modèles et les protègent contre l'exploitation et les vulnérabilités.

  • 2.4Contrôles de sûreté du contenu

    Systèmes et processus techniques qui détectent, filtrent et étiquettent le contenu généré par l'IA pour identifier les usages abusifs et permettre le suivi de provenance du contenu.

  • 3.3Gestion des accès

    Politiques opérationnelles et systèmes de vérification qui régissent qui peut utiliser les systèmes d'IA et à quelles fins, afin de prévenir le contournement de la sûreté, l'usage abusif délibéré et le déploiement dans des contextes à haut risque.

  • 3.5Surveillance post-déploiement

    Processus de suivi continu du comportement de l'IA, des interactions des utilisateurs et des impacts sociétaux après le déploiement pour détecter les usages abusifs, les capacités dangereuses émergentes et les effets nuisibles.

  • 4.6Droits et recours des utilisateurs

    Cadres et procédures qui permettent aux utilisateurs d'identifier et de comprendre les interactions avec les systèmes d'IA, de signaler des problèmes, de demander des explications et de solliciter un recours ou une réparation lorsqu'ils sont affectés par des systèmes d'IA.

Évaluez ce risque pour votre cas d'usage

Notre wizard d'évaluation des risques arrive prochainement.

Ce site utilise des cookies essentiels et fonctionnels pour améliorer votre expérience. Politique de confidentialité