Un règlement à portée extraterritoriale
Depuis le 2 février 2025, les premières dispositions du AI Act européen sont en application. Ce règlement, le premier cadre juridique complet au monde dédié à l'intelligence artificielle, impose des obligations strictes non seulement aux entreprises européennes, mais également à toute organisation dont les systèmes d'IA produisent des effets sur le territoire de l'Union européenne.
Pour les entreprises canadiennes, et particulièrement celles du Québec qui entretiennent des liens commerciaux étroits avec l'Europe, cette réalité impose une réflexion stratégique immédiate.
Les obligations clés à surveiller
Le règlement introduit une classification par niveaux de risque qui détermine les exigences applicables :
- Risque inacceptable : Certaines pratiques sont purement interdites, comme la notation sociale ou la manipulation comportementale.
- Risque élevé : Les systèmes utilisés dans le recrutement, l'évaluation de crédit ou les infrastructures critiques doivent faire l'objet d'une évaluation de conformité rigoureuse.
- Risque limité : Des obligations de transparence s'appliquent, notamment pour les systèmes conversationnels et les deepfakes.
Ce que les organisations canadiennes doivent faire dès maintenant
Nous recommandons aux organisations concernées de :
- Cartographier l'ensemble de leurs systèmes d'IA ayant une portée européenne.
- Évaluer le niveau de risque de chaque système selon la classification du AI Act.
- Documenter les processus de développement, de test et de déploiement conformément aux exigences techniques.
- Former les équipes aux nouvelles obligations réglementaires.
Le Cercle de Gouvernance de l'IA accompagne ses membres dans cette démarche de mise en conformité à travers des ateliers dédiés et des guides pratiques.



