Un ministre sans projet de loi, deux semaines après sa propre échéance
Le Canada s'était doté d'un symbole fort en nommant, au printemps 2025, Evan Solomon au poste de tout premier ministre de l'Intelligence artificielle et de l'Innovation numérique. L'ancien journaliste politique promettait alors de donner au pays un cadre législatif moderne, distinct de la défunte Loi sur l'intelligence artificielle et les données (LIAD) qui avait sombré avec la prorogation du Parlement en janvier 2025.
Solomon avait lui-même fixé le cap : une nouvelle proposition législative avant la fin du premier trimestre 2026. Nous sommes le 22 avril. Le projet de loi n'a pas été déposé.
Lors du congrès du Parti libéral du Canada à Montréal, le 10 avril dernier, le ministre s'est exprimé devant une table ronde sur l'IA. Pressé par les journalistes sur le calendrier, il n'a livré qu'une réponse évasive : la loi viendra « très bientôt ». Une formule que la chroniqueuse Hélène Buzzetti, dans Le Soleil du 17 avril, a résumée sans détour en qualifiant Solomon de « ministre du 'On verra' ».
Cette attente n'est pas anodine. Le vide législatif fédéral laisse les organisations canadiennes sans repères clairs pour encadrer leurs déploiements d'IA à haut risque, au moment même où l'Union européenne affine son propre calendrier de conformité et où certains États américains adoptent leurs propres règles sectorielles.
Ce que l'on sait de la future loi
Malgré le silence réglementaire, les contours de la future législation commencent à se dessiner par petites touches. Solomon a répété à plusieurs reprises que son gouvernement ne reproduira pas la LIAD telle quelle. L'approche envisagée serait plus ciblée, fondée sur les risques, et potentiellement articulée autour de secteurs prioritaires plutôt qu'un cadre horizontal unique.
Le cabinet du premier ministre Mark Carney a par ailleurs signalé un virage vers la souveraineté numérique et les avantages économiques de l'IA, repositionnant le Canada comme un acteur compétitif à l'échelle mondiale plutôt que comme un régulateur prudentiel. Cette tension entre compétitivité et protection reste au cœur du débat.
Le gouvernement a également indiqué vouloir soumettre un nouveau projet de loi sur la protection de la vie privée des consommateurs pour succéder à la Loi sur la protection des renseignements personnels (LPRPDE), un texte qui devra nécessairement s'articuler avec les règles encadrant l'IA automatisée.
L'ICSIA face à OpenAI : la gouvernance en actes
Si l'action législative se fait attendre, le volet opérationnel de la gouvernance de l'IA au Canada connaît, lui, un développement concret. L'Institut canadien de la sécurité de l'IA (ICSIA) a obtenu, au début du mois d'avril, un accès complet aux protocoles internes d'OpenAI — une première pour un organisme gouvernemental canadien.
Cette annonce fait suite à un événement troublant : il est apparu que la personne responsable de la fusillade de Tumbler Ridge, en Colombie-Britannique, avait été interdite par OpenAI d'utiliser ChatGPT en raison d'interactions préoccupantes, sans que l'entreprise n'en informe les autorités. En mars, Solomon avait rencontré le PDG d'OpenAI pour obtenir des engagements fermes.
Ces engagements incluent désormais :
- La communication de rapports décrivant les systèmes développés par OpenAI pour identifier les utilisateurs à haut risque ou en situation de détresse ;
- L'établissement d'un point de contact direct avec la Gendarmerie royale du Canada (GRC) ;
- La mise en œuvre de protocoles de sécurité visant à orienter les personnes vulnérables vers les services d'aide appropriés ;
- L'examen indépendant du modèle d'OpenAI par l'ICSIA, qui fournira des recommandations techniques au cabinet du ministre.
Cette démarche illustre ce que peut accomplir un organisme de surveillance sectoriel disposant d'un mandat clair et d'une autorité de négociation reconnue — même en l'absence d'une loi contraignante.
Gouvernance sans loi : les risques d'une posture attentiste
Le paradoxe canadien de l'heure tient à ceci : le pays dispose d'institutions capables d'agir (l'ICSIA, le Commissariat à la protection de la vie privée, les organismes sectoriels), mais sans cadre légal pour ancrer et généraliser leurs actions.
L'approche volontaire — obtenir des engagements d'OpenAI par la voie diplomatique — fonctionne dans un cas précis, avec un acteur coopératif. Elle montrerait ses limites face à un fournisseur moins accommodant ou dans une situation où des droits individuels seraient en jeu sans recours légal explicite.
Pour les organisations québécoises et canadiennes, cet entre-deux crée une incertitude opérationnelle réelle. Doivent-elles anticiper une législation calquée sur l'approche sectorielle ? Harmonisée avec la Loi 25 au Québec ? Alignée sur l'AI Act européen pour les entreprises exportatrices ? En l'absence de réponse formelle, les équipes de conformité naviguent à vue.
Ce qu'il faut retenir
La semaine du 22 avril 2026 consacre une image ambivalente de la gouvernance de l'IA au Canada : un ministre qui accumule les retards sur son propre calendrier, et un Institut de sécurité qui, lui, avance. Le prochain test sera le dépôt effectif d'un projet de loi — si Solomon tient enfin sa promesse — et la solidité des mécanismes prévus pour couvrir les cas que ni les engagements volontaires ni les outils existants ne peuvent traiter.
Pour les décideurs et responsables de conformité, la recommandation reste la même qu'en début d'année : ne pas attendre la loi pour structurer une gouvernance interne robuste. Le cadre viendra. Les pratiques, elles, doivent déjà exister.
Sources
- Hélène Buzzetti, Le Soleil, 17 avril 2026 — L'IA et le ministre du « On verra »
- La Presse, 10 avril 2026 — Un institut voué à la sécurité de l'IA examine les protocoles d'OpenAI
- BLG, mars 2026 — Un tournant décisif pour l'IA au Canada en 2026 ?
- Radio-Canada — Ottawa tarde à annoncer son changement d'approche en matière d'IA



