Essayez l'outil gratuitement

Essayer
Analyse2 min de lecture

AIDA : le Canada se dote enfin d'un cadre législatif pour l'intelligence artificielle

Le projet de loi C-27 et sa composante AIDA (Artificial Intelligence and Data Act) progressent au Parlement. Décryptage des obligations qui attendent les organisations canadiennes.

FB
Florian Brobst
Fondateur & Directeur · 10 février 2026

Un cadre attendu depuis longtemps

Alors que l'Union européenne a déjà mis en application son AI Act, le Canada avance à son rythme avec le projet de loi C-27, dont la Partie 3, Artificial Intelligence and Data Act (AIDA), constitue la première tentative de légiférer spécifiquement sur l'intelligence artificielle au niveau fédéral.

Ce texte, qui a franchi de nouvelles étapes au Parlement en début d'année, vise à encadrer le développement et le déploiement des systèmes d'IA à « incidence élevée » tout en favorisant l'innovation responsable.

Les grandes lignes de l'AIDA

Le projet de loi repose sur plusieurs piliers fondamentaux :

  • Classification des systèmes à incidence élevée : les organisations devront identifier et catégoriser leurs systèmes d'IA selon leur niveau de risque potentiel sur la santé, la sécurité et les droits fondamentaux des Canadiens.

  • Obligations de transparence : les utilisateurs devront être informés lorsqu'ils interagissent avec un système d'IA, et les organisations devront documenter les décisions prises par ces systèmes.

  • Évaluations d'impact : avant le déploiement d'un système à incidence élevée, une évaluation formelle des risques sera exigée.

  • Sanctions significatives : des amendes pouvant atteindre 10 millions de dollars ou 3 % du chiffre d'affaires mondial sont prévues pour les infractions les plus graves.

Ce que cela signifie pour les organisations québécoises

Les entreprises québécoises se retrouvent dans une position particulière : elles devront se conformer simultanément à la Loi 25 au niveau provincial et à l'AIDA au niveau fédéral. Cette superposition réglementaire exige une approche intégrée de la gouvernance.

Au Cercle, nous recommandons aux organisations de commencer dès maintenant à :

  1. Cartographier l'ensemble de leurs systèmes d'IA en production et en développement
  2. Évaluer le niveau de risque de chaque système selon les critères anticipés de l'AIDA
  3. Documenter les processus de prise de décision algorithmique
  4. Former les équipes aux exigences de conformité à venir

Un calendrier à surveiller

Bien que le texte final puisse encore évoluer, les organisations prudentes ne devraient pas attendre son adoption définitive pour agir. Les cadres de gouvernance mis en place aujourd'hui, registre des systèmes IA, évaluations d'impact, politiques internes, seront directement réutilisables pour se conformer à la future loi.

Le Cercle de Gouvernance de l'IA continuera de suivre l'évolution de ce projet de loi et d'accompagner ses membres dans leur préparation.


Partager :
FB
Florian Brobst
Fondateur & Directeur

Spécialiste en gouvernance de l’intelligence artificielle, Florian accompagne les organisations dans la mise en place de cadres de gouvernance responsables et conformes aux réglementations émergentes.

Restez inform\u00e9

Abonnez-vous \u00e0 notre infolettre pour ne rien manquer.

Nous contacter

Ce site utilise des cookies essentiels et fonctionnels pour améliorer votre expérience. Politique de confidentialité