Essayez l'outil gratuitement

Essayer
Domaine 4 · Acteurs malveillants et usages abusifs

4.2Cyberattaques, développement ou usage d'armes, et préjudices de masse

Utilisation de systèmes d'IA pour développer des cyberarmes (par exemple en programmant des logiciels malveillants moins coûteux et plus efficaces), créer ou améliorer des armes (armes létales autonomes ou armes chimiques, biologiques, radiologiques, nucléaires et explosives à fort potentiel) ou encore utiliser des armes pour causer des préjudices de masse.

Cadres légaux applicables

International

NIST AI RMF 1.0Recommandation

Govern 4 (sûreté)

Cadre volontaire de gestion des risques d'IA structuré autour de quatre fonctions : Govern, Map, Measure, Manage. Référence courante en gouvernance d'IA.

UE

Article 5 (pratiques interdites)

Règlement européen établissant un cadre harmonisé pour l'IA, fondé sur une approche par risque (risque inacceptable, élevé, limité, minimal). Pertinent pour les organisations québécoises faisant affaire en UE.

Exemples sectoriels québécois

Manufacturier critique

Manufacturier critiqueInfrastructure essentielle

Un attaquant utilise un assistant de codage IA pour générer des variantes de logiciels malveillants ciblant les automates programmables d'une centrale hydroélectrique.

Mitigations recommandées

  • 1.5Cadres de décision en matière de sûreté

    Protocoles et engagements qui encadrent les décisions relatives au développement, au déploiement et à la mise à l'échelle des capacités des modèles, et qui régissent l'allocation des ressources entre sûreté et capacités afin de prévenir un avancement non sécurisé de l'IA.

  • 2.1Sécurité des modèles et de l'infrastructure

    Garde-fous techniques et physiques qui sécurisent les modèles d'IA, leurs poids et l'infrastructure pour prévenir l'accès non autorisé, le vol, l'altération et l'espionnage.

  • 2.3Ingénierie de sûreté des modèles

    Méthodes techniques et garde-fous qui encadrent les comportements des modèles et les protègent contre l'exploitation et les vulnérabilités.

  • 3.3Gestion des accès

    Politiques opérationnelles et systèmes de vérification qui régissent qui peut utiliser les systèmes d'IA et à quelles fins, afin de prévenir le contournement de la sûreté, l'usage abusif délibéré et le déploiement dans des contextes à haut risque.

  • 3.6Réponse et reprise en cas d'incident

    Protocoles et systèmes techniques qui répondent aux incidents de sécurité, aux défaillances de sûreté ou aux usages abusifs des capacités afin de contenir les préjudices et de rétablir des opérations sûres.

Évaluez ce risque pour votre cas d'usage

Notre wizard d'évaluation des risques arrive prochainement.

Ce site utilise des cookies essentiels et fonctionnels pour améliorer votre expérience. Politique de confidentialité