Essayez l'outil gratuitement

Essayer
Domaine 7 · Sûreté, défaillances et limites des systèmes d'IA

7.2IA dotée de capacités dangereuses

Systèmes d'IA qui développent, acquièrent ou se voient attribuer des capacités augmentant leur potentiel à causer des préjudices de masse : tromperie, développement et acquisition d'armes, persuasion et manipulation, stratégie politique, cyberoffensive, développement d'IA, conscience situationnelle et auto-prolifération. Ces capacités peuvent provoquer des préjudices de masse en raison d'acteurs humains malveillants, de systèmes d'IA désalignés ou de défaillances du système d'IA.

Cadres légaux applicables

UE

Articles 51-55 (modèles de fondation à risque systémique)

Règlement européen établissant un cadre harmonisé pour l'IA, fondé sur une approche par risque (risque inacceptable, élevé, limité, minimal). Pertinent pour les organisations québécoises faisant affaire en UE.

Exemples sectoriels québécois

Recherche

RechercheLaboratoire universitaire ou industriel

Un laboratoire de recherche québécois découvre que son modèle interne peut générer des protocoles synthétiques sensibles, nécessitant un confinement et une évaluation pré-déploiement.

Mitigations recommandées

  • 1.5Cadres de décision en matière de sûreté

    Protocoles et engagements qui encadrent les décisions relatives au développement, au déploiement et à la mise à l'échelle des capacités des modèles, et qui régissent l'allocation des ressources entre sûreté et capacités afin de prévenir un avancement non sécurisé de l'IA.

  • 2.1Sécurité des modèles et de l'infrastructure

    Garde-fous techniques et physiques qui sécurisent les modèles d'IA, leurs poids et l'infrastructure pour prévenir l'accès non autorisé, le vol, l'altération et l'espionnage.

  • 2.2Alignement des modèles

    Méthodes techniques pour s'assurer que les systèmes d'IA comprennent les valeurs et intentions humaines et y adhèrent.

  • 2.3Ingénierie de sûreté des modèles

    Méthodes techniques et garde-fous qui encadrent les comportements des modèles et les protègent contre l'exploitation et les vulnérabilités.

  • 3.1Tests et audits

    Évaluations internes et externes systématiques qui examinent les systèmes d'IA, l'infrastructure et les processus de conformité pour identifier les risques, vérifier la sûreté et s'assurer que la performance respecte les normes.

Évaluez ce risque pour votre cas d'usage

Notre wizard d'évaluation des risques arrive prochainement.

Ce site utilise des cookies essentiels et fonctionnels pour améliorer votre expérience. Politique de confidentialité