Cadres légaux applicables
UE
Articles 51-55 (modèles de fondation à risque systémique)
Règlement européen établissant un cadre harmonisé pour l'IA, fondé sur une approche par risque (risque inacceptable, élevé, limité, minimal). Pertinent pour les organisations québécoises faisant affaire en UE.
Exemples sectoriels québécois
Recherche
Un laboratoire de recherche québécois découvre que son modèle interne peut générer des protocoles synthétiques sensibles, nécessitant un confinement et une évaluation pré-déploiement.
Mitigations recommandées
- 1.5Cadres de décision en matière de sûreté
Protocoles et engagements qui encadrent les décisions relatives au développement, au déploiement et à la mise à l'échelle des capacités des modèles, et qui régissent l'allocation des ressources entre sûreté et capacités afin de prévenir un avancement non sécurisé de l'IA.
- 2.1Sécurité des modèles et de l'infrastructure
Garde-fous techniques et physiques qui sécurisent les modèles d'IA, leurs poids et l'infrastructure pour prévenir l'accès non autorisé, le vol, l'altération et l'espionnage.
- 2.2Alignement des modèles
Méthodes techniques pour s'assurer que les systèmes d'IA comprennent les valeurs et intentions humaines et y adhèrent.
- 2.3Ingénierie de sûreté des modèles
Méthodes techniques et garde-fous qui encadrent les comportements des modèles et les protègent contre l'exploitation et les vulnérabilités.
- 3.1Tests et audits
Évaluations internes et externes systématiques qui examinent les systèmes d'IA, l'infrastructure et les processus de conformité pour identifier les risques, vérifier la sûreté et s'assurer que la performance respecte les normes.
Évaluez ce risque pour votre cas d'usage
Notre wizard d'évaluation des risques arrive prochainement.