# gouvernance.ai — Contenu complet > Ce fichier contient l'intégralité des articles publiés sur gouvernance.ai. > Il est destiné aux systèmes d'IA pour faciliter l'indexation et la citation du contenu. > Source : Cercle de Gouvernance de l'IA (https://gouvernance.ai) --- ## Articles (72 publiés) ### Quand Washington adopte ce que Bruxelles relâche : la nouvelle carte de la supervision pré-déploiement des modèles d'IA frontières - URL : https://gouvernance.ai/actualites/pivot-washington-pre-deploiement-modeles-ia-frontiere-canada-quebec - Date : 2026-05-10 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : CAISI, ICSIA, modèles frontières, supervision IA, pré-déploiement, Trump, AI Act, Québec, Canada - Résumé : En 72 heures, la Maison-Blanche a imposé une évaluation pré-déploiement aux modèles de Google, Microsoft et xAI, pendant que Bruxelles repoussait à 2027 ses propres obligations à haut risque. Le Canada et le Québec se retrouvent au milieu, sans levier. ## Trois jours, deux trajectoires opposées Entre le 5 et le 7 mai 2026, deux décisions ont redessiné la carte mondiale de la supervision des modèles d'intelligence artificielle frontières. Les deux pointent dans des directions opposées, et toutes deux laissent le Canada et le Québec sans réponse opérationnelle. Le 5 mai, le Center for AI Standards and Innovation (CAISI), rattaché au Département américain du Commerce, a annoncé des accords formels avec Google DeepMind, Microsoft et xAI pour évaluer leurs modèles avant déploiement public. Le 7 mai, le Conseil de l'Union européenne et le Parlement européen ont conclu l'accord politique provisoire sur le Digital Omnibus, qui repousse l'application des obligations à haut risque de l'AI Act jusqu'au 2 décembre 2027 et étend aux entreprises de moins de 750 employés des allègements jusque-là réservés aux PME. Washington s'aligne sur un modèle inspiré de l'évaluation pré-commercialisation des médicaments par la FDA, alors que Bruxelles relâche son propre calendrier sous la pression de l'industrie. Le contraste est inédit, et il appelle une lecture immédiate au Québec et à Ottawa. ## Le pivot américain : CAISI s'invite avant la mise en marché L'annonce du 5 mai constitue un revirement marquant pour une administration arrivée au pouvoir en s'opposant explicitement à toute supervision contraignante de l'intelligence artificielle. Selon Axios et le Washington Post, le déclencheur est l'affaire Mythos : Anthropic a elle-même restreint la diffusion de son modèle frontière en avril 2026, jugeant ses capacités cyber offensives trop dangereuses pour un déploiement large. Cette auto-restriction a pesé lourdement dans les arbitrages internes de la Maison-Blanche. Selon CNBC et le Hill, les nouveaux accords de CAISI étendent à Google DeepMind, Microsoft et xAI le mécanisme de pré-évaluation déjà en vigueur depuis 2024 avec OpenAI et Anthropic. Ces accords ont été renégociés pour refléter les nouvelles directives du secrétaire au Commerce Howard Lutnick et les engagements de l'America's AI Action Plan. CAISI évaluera notamment les risques cyber, biologiques et chimiques que pourraient amplifier ces modèles. Federal News Network indique par ailleurs qu'un projet de décret est à l'étude au sein du Conseil économique national et du Conseil de sécurité nationale. Kevin Hassett, directeur du NEC, a comparé publiquement l'approche envisagée à celle de la FDA pour les médicaments. Selon Fortune, plusieurs sources internes anticipent une décision exécutive dans les prochaines semaines. ## La trajectoire opposée de Bruxelles L'accord du 7 mai sur le Digital Omnibus officialise un assouplissement substantiel du calendrier européen. Les systèmes d'IA à haut risque autonomes listés à l'Annexe III de l'AI Act devront se conformer au plus tard le 2 décembre 2027. Pour les systèmes intégrés dans des produits régulés par la législation sectorielle européenne (dispositifs médicaux, machines, jouets), la date de bascule est repoussée au 2 août 2028. L'accord élargit également les allègements documentaires et les sanctions modulées aux entreprises de moins de 750 employés, alors que ces dispositions étaient initialement réservées aux PME. En contrepartie, il interdit explicitement les systèmes d'IA générant de l'imagerie intime non consentie ou du matériel d'exploitation sexuelle d'enfants, avec une mise en conformité exigée d'ici le 2 décembre 2026. Les co-législateurs visent une adoption formelle avant le 2 août 2026, date à laquelle les obligations originales devaient entrer en vigueur. Le pari assumé : éviter qu'un calendrier irréaliste ne décrédibilise la première grande loi mondiale sur l'IA. ## L'angle mort canadien : un institut sans accès aux modèles Le Canada possède théoriquement un équivalent du CAISI américain : l'Institut canadien sur la sécurité de l'intelligence artificielle, ou ICSIA, lancé en novembre 2024 avec une enveloppe de 50 millions de dollars sur cinq ans. Hébergé partiellement au CIFAR et adossé à Mila à Montréal, l'ICSIA mène treize projets de recherche couvrant la détection des hypertrucages, les benchmarks de sécurité et les risques liés aux agents autonomes. Mais l'écart avec son homologue américain est structurel. CAISI signe désormais des accords contraignants de pré-évaluation avec les principaux laboratoires frontières. L'ICSIA, lui, n'a aucun accord équivalent. Aucun fournisseur de modèles frontière n'est tenu, par la loi canadienne ou par engagement bilatéral, de soumettre ses systèmes à une évaluation canadienne avant déploiement. L'affaire Mythos avait déjà mis cette asymétrie en lumière en avril : ni l'ICSIA, ni la Commission canadienne d'accès à l'information, ni le Centre de la sécurité des télécommunications n'ont eu accès au modèle restreint d'Anthropic. Le 5 mai, c'est l'écart inverse qui se confirme : Washington obtient un droit de regard que ni Ottawa ni Québec ne possèdent. Le ministre fédéral de l'IA et de l'Innovation numérique, Evan Solomon, a indiqué qu'une stratégie nationale révisée serait dévoilée prochainement, après le sprint national de consultation de l'automne 2025 qui a recueilli plus de 11 000 contributions. Aucune date officielle n'est confirmée, et aucun élément public ne laisse entendre qu'un mécanisme de pré-déploiement comparable au modèle CAISI américain soit envisagé. ## Implications pour le Québec : ce que la directive ne couvre pas L'indication d'application du ministère de la Cybersécurité et du Numérique, qui devient opérationnellement contraignante le 5 juin 2026, encadre l'usage de l'IA générative au sein des organismes publics québécois. Elle ne porte pas sur la mise en marché, l'évaluation préalable ni la certification des modèles eux-mêmes. Trois enseignements émergent du double mouvement Washington-Bruxelles. D'abord, la supervision pré-déploiement devient un instrument de souveraineté qui complète, sans s'y substituer, les obligations imposées aux utilisateurs publics. Le Québec exige des organismes publics qu'ils encadrent leurs propres usages, mais reste tributaire des évaluations menées en amont par les autorités américaines, britanniques ou européennes. Ensuite, le pivot américain démontre qu'un cadre de pré-évaluation peut s'imposer rapidement par voie réglementaire fédérale, sans loi nouvelle, à condition d'obtenir l'engagement des grands laboratoires. Le Canada possède l'infrastructure institutionnelle pour le faire avec l'ICSIA, mais lui manque l'autorité contraignante et les accords correspondants. Enfin, le ralentissement européen rebat les cartes pour les organisations québécoises qui calquaient partiellement leur trajectoire de conformité sur l'AI Act. La pyramide de risques européenne reste inchangée, mais le calendrier opérationnel se desserre, alors que la directive québécoise garde son échéance ferme du 5 juin 2026. Les organismes publics québécois resteront, pour les douze à vingt-quatre prochains mois, parmi les plus exigeants en Amérique du Nord vis-à-vis de l'IA générative en service public. ## Sources - [Trump admin moves further into AI oversight, will test Google, Microsoft and xAI models (CNBC)](https://www.cnbc.com/2026/05/05/ai-oversight-trump-google-microsoft-xai.html) - [NIST's CAISI Announces New Frontier AI Testing Agreements with Google DeepMind, Microsoft, xAI (HPCwire)](https://www.hpcwire.com/off-the-wire/nists-caisi-announces-new-frontier-ai-testing-agreements-with-google-deepmind-microsoft-xai/) - [New frontier of AI forces Trump's heavy hand (Axios)](https://www.axios.com/2026/05/05/trump-anthropic-ai-regulation-mythos-cyber) - [Trump administration suddenly embraces AI oversight ideas it once rejected (Fortune)](https://fortune.com/2026/05/06/trump-administration-embraces-ai-oversight-policies-it-once-rejected-anthropic-mythos-caisi/) - [WH studying AI security executive order (Federal News Network)](https://federalnewsnetwork.com/artificial-intelligence/2026/05/wh-studying-ai-security-executive-order/) - [Microsoft, Google, xAI giving government early access to AI models for review (The Hill)](https://thehill.com/homenews/5863937-google-microsoft-xai-ai-testing/) - [Artificial Intelligence: Council and Parliament agree to simplify and streamline rules (Conseil de l'Union européenne)](https://www.consilium.europa.eu/en/press/press-releases/2026/05/07/artificial-intelligence-council-and-parliament-agree-to-simplify-and-streamline-rules/) - [Institut canadien sur la sécurité de l'IA (Innovation, Sciences et Développement économique Canada)](https://ised-isde.canada.ca/site/ised/en/canadian-artificial-intelligence-safety-institute) - [Programme de recherche de l'Institut canadien de la sécurité de l'IA au CIFAR](https://cifar.ca/fr/ia/icsia/) --- ### Gouvernance municipale de l'IA : ce que révèle la recherche de l'UdeM sur les villes québécoises - URL : https://gouvernance.ai/actualites/gouvernance-municipale-ia-villes-quebec-jieutsa - Date : 2026-05-10 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : municipalités, gouvernance, Québec, IA, souveraineté - Résumé : Une nouvelle étude doctorale de l'Université de Montréal cartographie l'usage de l'intelligence artificielle dans les municipalités du Québec et identifie des angles morts critiques de la gouvernance locale. Pendant que l'attention médiatique se concentre sur la stratégie nationale fédérale et sur les directives provinciales applicables aux ministères, un palier de gouvernance reste largement invisible dans le débat public québécois : les municipalités. Une recherche doctorale dévoilée le 8 mai 2026 par l'Université de Montréal vient combler ce vide en cartographiant l'adoption de l'intelligence artificielle dans les villes du Québec et en pointant des angles morts qui interpellent autant les élus locaux que le ministère de la Cybersécurité et du Numérique. ## Une cartographie inédite de l'IA municipale L'étude est signée Leandry Jieutsa, doctorant en aménagement à la Faculté de l'aménagement de l'Université de Montréal, rattaché à la Chaire UNESCO en paysage urbain. Sa méthodologie combine l'analyse de 77 documents publiés entre 2020 et 2025, une vingtaine d'entretiens avec des responsables municipaux et un atelier réunissant les principales parties prenantes de l'écosystème. L'analyse de réseau qu'il a produite identifie près de 300 acteurs impliqués dans la gouvernance municipale de l'IA au Québec, des fournisseurs technologiques aux organismes de recherche en passant par les directions des technologies de l'information des villes. Cette base empirique change la conversation. Jusqu'ici, les usages municipaux de l'IA étaient documentés au cas par cas, par communiqués isolés ou par projets pilotes médiatisés. Le portrait que dresse Jieutsa offre, pour la première fois, une vue d'ensemble systématique. ## Des usages plus diversifiés qu'attendu Les municipalités québécoises mobilisent déjà l'IA dans plusieurs fonctions concrètes. Côté administratif, on retrouve le traitement automatisé des factures, l'aide à la rédaction de documents et l'accélération de la production des demandes de subvention. Côté services aux citoyens, les agents conversationnels disponibles 24 heures sur 24 sur les sites municipaux et les systèmes de transcription automatique des appels se généralisent. Côté infrastructures urbaines, les outils d'IA optimisent le déneigement, planifient l'entretien routier, ajustent les feux de circulation en temps réel et prédisent les risques climatiques. Contrairement à l'hypothèse répandue d'une fracture numérique entre grandes et petites municipalités, l'étude documente une adoption transversale. Les petites villes recourent à l'IA précisément pour compenser le manque de ressources humaines et financières. Certaines indiquent à Jieutsa qu'elles ne pourraient « plus fonctionner sans » ces outils dans des fonctions ciblées comme le contrôle des permis de construction. Les grandes municipalités, à l'image de Laval, développent davantage leurs solutions à l'interne, tandis que les plus petites s'appuient sur des partenaires externes. ## Les angles morts de la gouvernance locale C'est sur le plan de la gouvernance que la recherche est la plus tranchante. Jieutsa identifie quatre vulnérabilités critiques. La première est une souveraineté municipale limitée sur les technologies et les savoirs : la dépendance aux grands fournisseurs étrangers (Microsoft, Google, OpenAI) pour l'infrastructure et les modèles est massive, sans cadre clair sur la portabilité des données ou la réversibilité des contrats. La deuxième est l'opérationnalisation floue des principes éthiques : les villes signent des chartes ou adhèrent à des cadres de référence, mais peinent à traduire ces engagements en règles d'achat, en clauses contractuelles ou en processus de revue. La troisième est le contrôle des données municipales et la propriété des équipements : la frontière entre données générées par la ville, données traitées par un fournisseur et données réutilisées pour l'entraînement de modèles tiers reste floue. La quatrième est la résistance organisationnelle au changement, qui se manifeste à toutes les échelles. Ces constats résonnent fortement avec le débat québécois en cours. La directive provinciale sur l'IA dans l'administration publique, dont la conformité est exigée d'ici le 5 juin 2026, ne s'applique pas directement aux municipalités, qui ne sont pas assujetties à la Loi sur la gouvernance et la gestion des ressources informationnelles au même titre que les ministères. Le palier municipal évolue ainsi dans un vide réglementaire relatif, alors même qu'il déploie de l'IA au contact direct des citoyens. ## Cinq pistes pour combler le vide L'étude propose un programme d'action concret pour les municipalités et leurs partenaires. Premièrement, instaurer des registres municipaux des usages d'IA, à l'image de ce que la directive provinciale impose aux ministères. Deuxièmement, élaborer des guides standardisés d'approvisionnement en IA, pour outiller les services d'achat face à des fournisseurs souvent mieux dotés juridiquement. Troisièmement, mutualiser une infrastructure infonuagique partagée entre municipalités, notamment pour les plus petites. Quatrièmement, soutenir le développement de solutions en libre accès. Cinquièmement, renforcer les capacités internes des villes, condition de tout contrôle démocratique réel sur des systèmes algorithmiques de plus en plus structurants. Jieutsa esquisse aussi une typologie prospective de la gouvernance municipale de l'IA en trois niveaux : une gouvernance assistée, où l'IA appuie la décision humaine par des outils prédictifs ; une gouvernance augmentée, où humains et systèmes collaborent en temps réel ; et une gouvernance autonome, où des systèmes opèrent sans supervision continue. Les deux premiers niveaux sont déjà observables dans les villes québécoises. Le troisième, encore prospectif, devra être encadré avant et non après son apparition. ## Pourquoi cette recherche compte L'étude arrive dans un moment où l'OBVIA a publié un guide pratique d'utilisation de l'IA générative pour les municipalités du Québec et où plusieurs intervenants demandent une clarification du cadre municipal. Elle fournit une base de données factuelle pour ces discussions, et elle déplace le centre de gravité du débat québécois sur l'IA : non plus seulement Mila, le ministère de la Cybersécurité et du Numérique ou la Commission d'accès à l'information, mais aussi les hôtels de ville, les MRC et l'Union des municipalités du Québec. Pour les conseils municipaux qui adopteront un cadre de gouvernance de l'IA dans les prochains mois, ce travail constitue un point de départ rigoureux. Pour le législateur québécois, il pose une question politique directe : faut-il étendre formellement aux municipalités les obligations qui s'appliquent déjà aux ministères, ou laisser le palier local construire son propre cadre, au risque d'une fragmentation durable ? ## Sources - UdeMnouvelles, « Comment l'intelligence artificielle est-elle utilisée par les villes du Québec? », 8 mai 2026 — https://nouvelles.umontreal.ca/article/2026/05/08/comment-l-intelligence-artificielle-est-elle-utilisee-par-les-villes-du-quebec - Chaire UNESCO en paysage urbain, profil de Leandry Jieutsa — https://unesco-studio.umontreal.ca/team/leandry_jieutsa.html - OBVIA, « Guide pratique d'utilisation de l'IA générative pour les municipalités du Québec » — https://www.obvia.ca/ressources/guide-pratique-dutilisation-de-lia-generative-pour-les-municipalites-du-quebec - Gouvernement du Québec, « Stratégie d'intégration de l'intelligence artificielle dans l'administration publique 2021-2026 » — https://www.quebec.ca/gouvernement/politiques-orientations/strategie-integration-ia-administration-publique-2021-2026 --- ### L'OQLF actualise le vocabulaire de l'IA : 200 termes pour gouverner la langue de l'intelligence artificielle au Québec - URL : https://gouvernance.ai/actualites/oqlf-vocabulaire-ia-evolution-200-termes-quebec - Date : 2026-05-08 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : OQLF, francisation, vocabulaire IA, gouvernance linguistique, Québec - Résumé : L'Office québécois de la langue française a publié le 7 mai un nouveau vocabulaire de l'intelligence artificielle couvrant plus de 200 concepts, de l'affinage à l'infiltration de requête. Une initiative de francisation qui devient aussi un levier de gouvernance pour les organisations québécoises. Le 7 mai 2026, l'Office québécois de la langue française (OQLF) a mis en ligne une version entièrement actualisée de son vocabulaire de l'intelligence artificielle, intitulée *L'intelligence artificielle en évolution : les termes de l'IA*. L'outil regroupe les équivalents français de plus de 200 concepts liés à l'IA, depuis les briques techniques (affinage, conversion en jetons, décodage spéculatif) jusqu'aux enjeux contemporains (alignement de l'IA, hallucination d'IA, infiltration de requête). Il succède à la première édition publiée en 2018, *Une intelligence artificielle bien réelle : les termes de l'IA*, devenue largement insuffisante face à la déferlante de l'IA générative, des grands modèles de langage et des agents autonomes. ## Une mise à jour devenue indispensable Huit ans en IA, c'est plusieurs générations technologiques. Le vocabulaire de 2018 ne couvrait ni les agents conversationnels grand public, ni les techniques de prompt engineering, ni les concepts de sécurité comme les attaques par injection d'instructions. Beaucoup d'organisations québécoises se contentaient depuis d'emprunts directs à l'anglais : *fine-tuning*, *tokenization*, *prompt injection*, *AI alignment*. Cette zone grise terminologique fragilisait la francisation des milieux de travail tout en compliquant la rédaction de directives, de politiques internes et de documents contractuels en français. Le nouvel outil pose des choix normatifs explicites. Il distingue les termes recommandés, les variantes acceptées et les usages déconseillés. Ainsi, *agent conversationnel* est privilégié à *chatbot*, *hallucination d'IA* est retenu pour désigner les sorties erronées d'un modèle génératif, et *infiltration de requête* devient l'équivalent officiel de *prompt injection*. Pour les équipes qui rédigent des cadres de gouvernance, des politiques d'usage acceptable ou des analyses de risques au sens d'une AIRI, ce socle terminologique unifié change concrètement le quotidien : il n'est plus nécessaire d'arbitrer en interne entre cinq traductions concurrentes. ## Une production collective qui ancre la légitimité L'OQLF n'a pas travaillé seul. La nouvelle édition a été produite en collaboration avec Mila (l'Institut québécois d'intelligence artificielle), le ministère de la Cybersécurité et du Numérique, le Département d'informatique de l'Université de Sherbrooke, l'Institut intelligence et données de l'Université Laval ainsi que HEC Montréal. Cette coalition rare réunit l'expertise scientifique, l'autorité linguistique et l'organe responsable de la transformation numérique de l'État. Elle assure que les choix terminologiques tiennent autant à la rigueur informatique qu'à la cohérence du français normé. Cet ancrage institutionnel a une valeur de gouvernance. Les organismes publics québécois assujettis aux directives sur l'utilisation responsable de l'IA, dont l'échéance de mise en œuvre est fixée à juin 2026, disposent désormais d'une référence officielle pour standardiser leurs documents internes et leurs communications publiques. Les entreprises soumises à la Charte de la langue française, en particulier celles qui doivent faire approuver leurs programmes de francisation, peuvent s'appuyer sur ce vocabulaire pour démontrer leurs efforts de mise en conformité dans un domaine technologique en mutation rapide. ## Un levier de gouvernance, pas seulement de langue Au-delà de la dimension linguistique, le vocabulaire de l'OQLF agit comme un instrument discret de gouvernance. La capacité d'une organisation à parler de l'IA dans sa langue de travail conditionne sa capacité à la maîtriser. Quand les concepts ne sont pas nommés clairement, la formation des employés se dégrade, les politiques internes deviennent floues, et les évaluations de risques s'appuient sur des termes flottants qui résistent à l'audit. L'expérience des dernières années a montré que des notions comme *bias*, *drift* ou *prompt injection* étaient utilisées sans définition partagée, y compris par des décideurs qui devaient signer des autorisations de mise en service. Cette ambiguïté terminologique n'est pas neutre. Lorsqu'un dirigeant approuve un déploiement sans savoir précisément ce qu'est une *injection de requête*, il assume un risque qu'il ne comprend pas. Inversement, lorsqu'une politique interne mentionne *l'alignement de l'IA* sans renvoyer à une définition de référence, elle laisse une marge d'interprétation considérable aux équipes opérationnelles. Le vocabulaire de l'OQLF, en consolidant des définitions adossées à un consensus scientifique et institutionnel, donne aux conseils d'administration et aux comités de gouvernance un point d'appui pour exiger plus de précision dans les dossiers qu'on leur soumet. ## Une portée qui dépasse les frontières du Québec La démarche s'inscrit aussi dans un contexte international. La France a publié sa propre liste officielle de termes de l'IA au Journal officiel, et l'Union européenne, en parallèle de l'AI Act, encourage les États membres à harmoniser leur terminologie technique. Le travail québécois s'aligne largement avec ces démarches tout en conservant des particularités, notamment certaines préférences pour des néologismes propres au français nord-américain. Pour les filiales québécoises d'entreprises canadiennes ou multinationales, cette convergence francophone facilite la rédaction de politiques uniformes entre le siège européen et les opérations québécoises. Pour les acteurs de la gouvernance de l'IA au Québec, organismes publics, entreprises soumises à la Loi 25, professionnels en cybersécurité, juristes et consultants en transformation numérique, l'arrivée du nouveau vocabulaire fournit un référentiel partagé et opposable. Il rejoint la liste, déjà longue, des outils que la province se donne pour ne pas subir l'IA mais l'encadrer dans sa propre langue, avec ses propres mots et ses propres normes. ## Sources - [L'IA québécoise se donne un vocabulaire à jour, MonCarnet, 7 mai 2026](https://moncarnet.com/2026/05/07/lia-quebecoise-se-donne-un-vocabulaire-a-jour/) - [Vocabulaire de l'intelligence artificielle, Office québécois de la langue française](https://www.oqlf.gouv.qc.ca/vocabulaire-intelligence-artificielle) - [Parlez-vous IA ? L'OQLF actualise plus de 200 termes qui y sont liés, Les Affaires, mai 2026](https://www.lesaffaires.com/secteurs/techno-et-ia/parlez-vous-ia-loqlf-actualise-plus-de-200-termes-qui-y-sont-lies/) - [Vocabulaire de l'intelligence artificielle (PDF), OQLF, 2026](https://www.oqlf.gouv.qc.ca/ressources/bibliotheque/dictionnaires/VocabulairesPDF/vocabulaire-intelligence-artificielle.pdf) --- ### ChatGPT et vie privée : la décision conjointe du 6 mai pointe cinq manquements et formule quatre recommandations québécoises - URL : https://gouvernance.ai/actualites/cai-cpvp-chatgpt-decision-conjointe-recommandations - Date : 2026-05-07 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : CAI, CPVP, ChatGPT, OpenAI, vie privée, Loi 25, Québec, Canada, gouvernance IA - Résumé : Le 6 mai 2026, la CAI, le CPVP fédéral et leurs homologues de l'Alberta et de la Colombie-Britannique ont rendu publique leur enquête conjointe ouverte en 2023 sur OpenAI. Cinq manquements aux lois canadiennes et québécoises sont retenus, OpenAI s'engage à se conformer dans un délai de six mois, mais aucune sanction n'est imposée. ## Une décision attendue depuis trois ans Le 6 mai 2026, à 11 heures au National Press Theatre d'Ottawa, le Commissaire fédéral à la vie privée Philippe Dufresne a présenté, aux côtés de Naomi Ayotte (vice-présidente de la CAI), Michael Harvey (Colombie-Britannique) et Diane McLeod (Alberta), les conclusions de l'enquête conjointe ouverte en 2023 contre OpenAI. C'est la première fois que les quatre autorités qui couvrent la quasi-totalité du territoire canadien produisent une décision commune sur un grand modèle de langage, et cette décision pose des balises qui dépasseront largement le cas ChatGPT. L'enquête répondait à une plainte déposée à la suite d'un incident de sécurité survenu chez OpenAI en mars 2023, et plus largement aux interrogations soulevées par l'usage massif de données scrappées sur le Web public pour entraîner les modèles. Trois ans plus tard, la décision est sans ambiguïté : ni l'entraînement initial ni le déploiement de ChatGPT au Canada ne respectaient les lois fédérales et provinciales applicables. ## Cinq manquements documentés Les autorités retiennent cinq catégories de manquements aux lois canadiennes et québécoises sur la protection des renseignements personnels. D'abord une collecte excessive : pour bâtir ses modèles, OpenAI a aspiré des données du Web public sans distinguer les contenus sensibles (informations sur la santé, opinions politiques, données concernant des enfants) des contenus banals. Ensuite, un consentement invalide : les Canadiens dont les renseignements ont nourri l'entraînement n'ont jamais été informés de cette collecte, ni n'ont eu la possibilité de la refuser, alors que la Loi 25 exige un consentement libre et éclairé. Troisièmement, un défaut de transparence : avant 2024, OpenAI n'avertissait pas suffisamment les utilisateurs de ChatGPT que leurs conversations pouvaient être réinjectées dans l'entraînement et que les réponses du modèle pouvaient contenir des inexactitudes factuelles à leur sujet. Quatrième constat, et c'est probablement le plus structurant pour les juristes : OpenAI n'avait pas mis en place de mécanismes opérationnels d'accès, de rectification et de suppression. Les Canadiens qui retrouvaient des informations erronées les concernant dans les réponses du modèle n'avaient en pratique aucun recours technique. Cinquième manquement, une responsabilisation lacunaire : l'entreprise n'avait pas conduit, avant le déploiement, l'analyse formalisée des risques pour la vie privée que les autorités attendent désormais de tout fournisseur de service traitant des données canadiennes. ## Quatre recommandations made-in-Québec C'est la CAI qui a porté les recommandations les plus précises de la décision conjointe. La Commission demande à OpenAI quatre choses concrètes. Premièrement, mettre en place, dès la collecte, des mesures raisonnables pour respecter les obligations d'information ou obtenir le consentement, ce qui suppose un travail technique de filtrage à la source. Deuxièmement, avertir explicitement les utilisateurs de la version gratuite que leurs clavardages pourraient être examinés et utilisés à des fins d'entraînement du modèle, une obligation qui rejoint la logique de transparence de la Loi 25. Troisièmement, inverser les paramètres par défaut : les conversations ne devraient plus être utilisées pour l'entraînement à moins d'un opt-in actif de l'utilisateur. Quatrièmement, informer les utilisateurs sur la conservation des données historiques, ou procéder à leur destruction ou à leur anonymisation lorsque la conservation n'est plus justifiée. Ces quatre recommandations ne sortent pas de nulle part. Elles transposent, dans le contexte spécifique d'un grand modèle de langage, les exigences déjà inscrites à la Loi 25 sur le consentement explicite, la minimisation et le droit à l'effacement. Pour Lise Girard, présidente de la CAI, la position de fond est sans détour : « L'innovation ne saurait justifier, à elle seule, une atteinte aux droits fondamentaux. » ## Pourquoi pas de sanctions Aucune amende ni ordonnance contraignante n'est imposée à OpenAI. Trois raisons cohabitent. La plainte est déclarée « bien fondée et résolue conditionnellement », formule du CPVP qui indique que l'entreprise a déjà commencé à corriger le tir. OpenAI a effectivement abandonné ChatGPT 3.5 et 4, restreint les données utilisées pour les nouveaux modèles, et s'est engagée à déployer des mesures supplémentaires de protection dans un délai de six mois. La CAI, par la voix de Naomi Ayotte, a précisé que dans le cadre d'une enquête conjointe et au regard des actions correctives, le choix retenu a été d'émettre des recommandations plutôt que de sanctionner. Dernier facteur, le plus politique : Philippe Dufresne ne dispose toujours pas, au fédéral, du pouvoir d'imposer des amendes ou des ordonnances. Il a saisi la conférence de presse pour redire que la modernisation de la Loi sur la protection des renseignements personnels et les documents électroniques est urgente, et que la simple « présence d'un risque de sanctions » suffirait à motiver des changements plus rapides chez les fournisseurs d'IA. Le contraste avec la CAI, qui dispose depuis la Loi 25 d'un régime de sanctions pouvant atteindre 25 millions de dollars ou 4 % du chiffre d'affaires mondial, est devenu un argument central du débat fédéral. ## Ce que la décision change pour les organisations québécoises Pour les entreprises et les organismes publics établis au Québec, la décision a trois effets immédiats. Elle confirme que la Loi 25 s'applique pleinement aux fournisseurs de modèles d'IA générative, y compris quand l'entraînement a lieu à l'étranger sur des données scrappées. Elle clarifie que les évaluations des facteurs relatifs à la vie privée, les EFVP, doivent être conduites avant tout déploiement d'un système d'IA générative, ce qui rejoint la logique de la Directive sur l'IA dans le secteur public dont la conformité totale est attendue le 5 juin 2026. Et elle livre, à travers les quatre recommandations adressées à OpenAI, un mode d'emploi exploitable par les responsables de la conformité : transparence à la collecte, information à l'usage, paramètres par défaut respectueux et politiques de conservation documentées. À court terme, les directions juridiques québécoises retiendront surtout que le risque s'est déplacé. Il ne porte plus seulement sur l'utilisation des outils d'IA par les employés, mais sur la chaîne complète, depuis l'entraînement du modèle jusqu'à la génération de la réponse. Le Québec, en obtenant que ses recommandations figurent au cœur d'une décision pancanadienne, vient de se positionner comme un référent normatif au-delà de ses frontières. ## Sources - [Résultats de l'enquête conjointe sur OpenAI ChatGPT, Gouvernement du Québec, 6 mai 2026](https://www.quebec.ca/nouvelles/actualites/details/resultats-de-lenquete-conjointe-sur-openai-chatgpt-en-matiere-de-protection-des-renseignements-personnels-70206) - [Joint investigation by Canadian privacy regulators into OpenAI's ChatGPT, OPC, 6 mai 2026](https://www.priv.gc.ca/en/opc-news/news-and-announcements/2026/nr-c_260506/) - [OpenAI n'a pas respecté la loi sur les données personnelles, mais ne sera pas sanctionnée, Radio-Canada, 6 mai 2026](https://ici.radio-canada.ca/nouvelle/2251896/chatgpt-openai-vie-privee-donnees-renseignements) - [OpenAI a manqué à ses obligations, selon des commissaires canadiens, La Presse, 6 mai 2026](https://www.lapresse.ca/affaires/techno/2026-05-06/protection-de-la-vie-privee/openai-a-manque-a-ses-obligations-selon-des-commissaires-canadiens.php) - [OpenAI n'a pas respecté la loi canadienne lors de l'entraînement de ChatGPT, Les Affaires, 6 mai 2026](https://www.lesaffaires.com/secteurs/techno-et-ia/openai-na-pas-respecte-la-loi-canadienne-lors-de-lentrainement-de-chatgpt/) --- ### Vie privée et IA : le Commissaire fédéral lance ses directives sur la vérification d'âge et annonce une décision conjointe sur ChatGPT avec la CAI - URL : https://gouvernance.ai/actualites/opc-age-assurance-chatgpt-cai-quebec - Date : 2026-05-05 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : CPVP, CAI, ChatGPT, vérification d'âge, vie privée, Loi 25, gouvernance IA, Québec, Canada - Résumé : Le 4 mai 2026, le Commissaire fédéral à la vie privée Philippe Dufresne a publié deux nouvelles directives encadrant les technologies de vérification d'âge en ligne et annoncé qu'une décision conjointe sur l'enquête ChatGPT, menée avec la CAI du Québec, l'Alberta et la Colombie-Britannique, sera rendue publique le 6 mai. Pour le Québec, la séquence éclaire deux chantiers actifs : la protection des mineurs en ligne et l'application de la Loi 25 aux modèles d'IA générative. ## Une journée à forte densité réglementaire Le 4 mai 2026, à l'occasion de l'ouverture de la Semaine de sensibilisation à la vie privée et de son discours d'ouverture au Symposium IAPP Canada, le Commissaire à la vie privée du Canada, Philippe Dufresne, a enchaîné trois annonces qui dessinent l'agenda canadien de la gouvernance des données numériques pour les prochains mois. Deux nouvelles directives encadrant les technologies de vérification d'âge en ligne, une décision conjointe imminente sur l'enquête ChatGPT menée depuis 2023, et une enquête accélérée sur la plateforme X concernant la diffusion d'hypertrucages intimes non consensuels. Cette séquence n'est pas anodine. Elle place le Commissaire fédéral et ses homologues provinciaux, dont la Commission d'accès à l'information du Québec (CAI), en position de premier rappel concret de ce que les lois en vigueur imposent déjà aux fournisseurs d'IA, sans attendre la réforme fédérale annoncée par le ministre Evan Solomon dans le cadre de sa stratégie en six piliers. ## Vérification d'âge : deux directives, une logique de minimisation Les deux documents publiés par le Commissariat fédéral s'adressent à des publics distincts mais cohérents. La première directive, destinée aux plateformes et aux fournisseurs de services en ligne, fixe les conditions d'opportunité d'un dispositif de vérification d'âge : nécessité, proportionnalité, démonstration que des mesures moins intrusives ne suffisent pas. La seconde s'adresse aux développeurs des technologies elles-mêmes (estimation par image, comparaison documentaire, attestation par tiers de confiance) et impose des standards de minimisation des données, l'interdiction de tout usage secondaire après vérification et des pratiques de suppression effectives. Le commissaire Dufresne a résumé l'objectif lors de son discours : permettre une expérience en ligne plus sécuritaire pour les enfants sans créer d'effets de bord disproportionnés sur la vie privée. Sur le plan technique, le message est limpide. Une vérification qui exigerait de transmettre une pièce d'identité complète, de la conserver et de la croiser avec d'autres profils n'est plus acceptable. Les architectures privilégiées seront celles qui produisent une simple attestation booléenne (l'utilisateur a, ou non, dépassé un seuil) sans exfiltrer le détail de l'identité. Pour le Québec, ces directives arrivent dans un contexte particulièrement dense. Le projet de loi 24, déposé fin avril, encadre déjà l'usage des hypertrucages et la responsabilité des plateformes. Le Manitoba, à la fin avril également, a interdit les chatbots d'IA aux mineurs, une orientation que plusieurs observateurs québécois jugent inspirante. Et l'avis du CCTM sur l'IA dans les milieux de travail, rendu public la semaine précédente, insistait déjà sur la nécessité de protéger les populations vulnérables. Les directives fédérales s'inscrivent donc dans un mouvement plus large : celui de transformer la vérification d'âge en levier de gouvernance plutôt qu'en outil de profilage. ## ChatGPT : la décision conjointe attendue le 6 mai L'annonce qui retiendra sans doute le plus l'attention des juristes et des responsables de conformité concerne l'enquête conjointe ouverte en 2023 par le CPVP, la CAI, l'Office of the Information and Privacy Commissioner of Alberta et son homologue de la Colombie-Britannique. Les conclusions seront rendues publiques le 6 mai 2026, à 11h, lors d'une conférence de presse au National Press Theatre à Ottawa, en présence de Naomi Ayotte, vice-présidente de la CAI, ainsi que des commissaires Michael Harvey (C.-B.) et Diane McLeod (Alberta). L'enquête portait sur une question simple en apparence : OpenAI a-t-elle obtenu un consentement valide et éclairé pour la collecte, l'utilisation et la divulgation des renseignements personnels des Canadiens dans le cadre de l'entraînement et de l'exploitation de ChatGPT ? Au-delà du verdict, c'est la jurisprudence administrative qui s'écrira ici. La décision posera des balises sur la manière dont les grands modèles de langage doivent traiter les données scrappées sur le Web, sur les obligations de transparence et, possiblement, sur les droits d'accès et de rectification dans des systèmes dont la nature stochastique rend ces concepts délicats à appliquer. Pour la CAI, c'est une étape importante. La Loi 25 contient déjà un régime spécifique sur les décisions automatisées et sur le consentement à la collecte. Une position commune avec trois autres autorités donnera un poids particulier aux orientations québécoises et limitera la fragmentation jurisprudentielle entre provinces, un point que les entreprises canadiennes appellent régulièrement de leurs vœux. ## Une troisième annonce : enquête accélérée sur X Le commissaire a également indiqué qu'une enquête accélérée a été ouverte concernant la plateforme X, à propos de la diffusion d'images intimes générées par IA sans consentement (deepfake porn). La cadence retenue, qualifiée d'expéditive par Dufresne, signale que le CPVP cherche à éviter les délais habituels lorsque la victimisation est en cours. C'est aussi une réponse implicite aux critiques sur la lenteur des procédures administratives face aux dynamiques virales propres aux plateformes. Cette annonce complète logiquement la trajectoire québécoise : le projet de loi 24 et le projet de loi fédéral C-16, en chantier depuis le début de l'année 2026, partent du même constat. Sans capacité d'enquête rapide, sans coordination interprovinciale et sans coopération du fédéral, les réponses arrivent trop tard. ## Ce que les organisations doivent en retenir Trois éléments concrets ressortent pour les organisations québécoises qui déploient de l'IA générative ou qui exposent leurs services à un public mineur. D'abord, la vérification d'âge n'est plus un sujet purement commercial : elle devient un test de gouvernance. Les fournisseurs de chatbots, de plateformes éducatives, de jeux et de services de contenus doivent revoir leurs flux d'authentification à la lumière des principes de nécessité, de proportionnalité et de minimisation publiés par le CPVP. Ensuite, la décision conjointe sur ChatGPT modifiera, dès le 6 mai, le paysage contractuel. Les services informatiques et juridiques devront prévoir une revue rapide des contrats avec OpenAI et, par extension, avec les autres fournisseurs de modèles fondationnels. Les politiques d'usage interne des outils d'IA générative pourraient devoir être ajustées en conséquence. Enfin, l'enquête accélérée sur X annonce un changement de tempo. Les organisations dont les produits peuvent être détournés à des fins d'hypertrucage doivent intégrer dès maintenant des mécanismes de provenance, de filigranage et de signalement. Attendre la version finale de la Loi sur l'IA et les données ou des règlements d'application est une stratégie risquée. Pour le Québec, le 6 mai sera donc une date à surveiller : c'est, peut-être, la première grande décision administrative pancanadienne sur un grand modèle d'IA générative, et elle aura été coécrite par sa propre Commission d'accès à l'information. ## Sources - Office of the Privacy Commissioner of Canada, « News release: Privacy Commissioner of Canada launches new age assurance guidance to support organizations », 4 mai 2026 : https://www.priv.gc.ca/en/opc-news/news-and-announcements/2026/nr-c_260504/ - Office of the Privacy Commissioner of Canada, « Media advisory: Privacy regulators to discuss findings of joint investigation into ChatGPT », 4 mai 2026 : https://www.priv.gc.ca/en/opc-news/news-and-announcements/2026/ma_260504/ - IAPP, « OPC's Dufresne touts new age assurance guides, teases AI enforcement updates », 4 mai 2026 : https://iapp.org/news/a/privacy-commissioner-of-canada-delivers-keynote-address-at-iapp-canada-symposium-2026 - Office of the Privacy Commissioner of Canada, « Assessing whether and how to use age assurance – Guidance for websites and online services » : https://www.priv.gc.ca/en/privacy-topics/age-assurance/aa-gd-web/ - Office of the Privacy Commissioner of Canada, « Designing age assurance to be privacy-protective – Guidance for age assurance developers » : https://www.priv.gc.ca/en/privacy-topics/age-assurance/aa-gd-developers/ - MLex, « Canada's Privacy Commissioner emphasizes data minimization in age-assurance guidance », 4 mai 2026 : https://www.mlex.com/mlex/articles/2473395/canada-s-privacy-commissioner-emphasizes-data-minimization-in-age-assurance-guidance --- ### IA au Canada : la préparation organisationnelle pèse plus lourd que l'infrastructure - URL : https://gouvernance.ai/actualites/preparation-organisationnelle-ia-canada-quebec - Date : 2026-05-04 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : préparation organisationnelle, infrastructure IA, gouvernance, Québec, Canada, Hill Times, capacité, souveraineté - Résumé : Deux tribunes publiées le 4 mai 2026 dans le Hill Times remettent en cause la trajectoire canadienne en intelligence artificielle : sans préparation organisationnelle, sans gouvernance solide et sans alternatives ouvertes aux modèles américains, les milliards investis dans l'infrastructure pourraient ne pas se traduire en valeur économique. Pour le Québec, qui doit appliquer son cadre obligatoire d'ici juin 2026, l'avertissement résonne directement. ## Deux tribunes, un même diagnostic Le 4 mai 2026, le Hill Times publie coup sur coup deux tribunes qui convergent sur un constat dérangeant pour la stratégie canadienne en intelligence artificielle. La première, signée par Umar Ruhi, s'intitule « Canada's AI challenge is readiness, not infrastructure ». La seconde, de Teshager W. Dagne, dénonce un « proprietary blind spot » dans la stratégie fédérale. Toutes deux pointent un même angle mort : Ottawa multiplie les annonces autour des centres de données souverains, du superordinateur public et des investissements en calcul, mais ne consacre pas la même énergie à la préparation organisationnelle, à la gouvernance et aux alternatives ouvertes aux modèles propriétaires américains. Ce diagnostic arrive à un moment charnière. L'appel à propositions du programme fédéral de calcul souverain (SCIP) reste ouvert jusqu'au 1er juin 2026, le ministre Evan Solomon achève la consolidation de la stratégie nationale en six piliers, et le Québec est lui-même engagé dans la dernière ligne droite avant l'échéance de juin 2026 fixée par le ministère de la Cybersécurité et du Numérique pour appliquer son cadre obligatoire dans l'administration publique. ## Le paradoxe de l'infrastructure L'argument central de Ruhi tient en une comparaison historique : lors des révolutions technologiques précédentes, l'essentiel de la valeur économique a été captée par les utilisateurs de la technologie, pas par ceux qui ont construit les tuyaux. Investir dans le compute sans investir dans la capacité d'absorption (formation, processus, gouvernance, gestion du changement), c'est se condamner à payer pour les autoroutes que d'autres emprunteront. Cette mise en garde rejoint une autre critique, formulée la veille par Bryan Hill dans le même journal sous le titre « Canada's next AI challenge is execution ». Les annonces ne manquent pas : 890 millions pour le superordinateur public, 36 millions à Mila en février, l'énoncé économique de l'automne 2025 et ses six piliers, le registre fédéral de plus de 400 systèmes d'IA. Mais l'exécution, elle, traîne. Et le Québec, qui voudrait porter une candidature unifiée pour le SCIP, n'a toujours pas tranché entre une proposition coordonnée (universités, Hydro-Québec, opérateurs de centres de données, gouvernement provincial) et plusieurs propositions concurrentes. ## Le « blind spot » des modèles propriétaires Dagne ajoute une dimension complémentaire. Lorsqu'une infirmière à Montréal interroge un outil d'IA pour détecter une septicémie, elle utilise généralement un modèle conçu en Californie, soumis au droit américain. La souveraineté sur le calcul ne suffit pas si les modèles déployés au-dessus restent étrangers et fermés. Les 11 300 Canadiens qui ont participé à la consultation d'ISED ont déjà identifié l'enjeu : l'open source manque comme pilier stratégique. Ce point résonne particulièrement au Québec, où la directive ministérielle de décembre 2025 exige des organismes publics qu'ils classifient leurs données, conduisent systématiquement des évaluations des facteurs relatifs à la vie privée et documentent leurs processus avant tout déploiement. Sans alternative ouverte vérifiable, ces obligations deviennent extrêmement lourdes à satisfaire face à un fournisseur étranger qui refuse de divulguer ses jeux d'entraînement, ses politiques de filtrage ou ses garanties de localisation des données. ## Ce que cela change pour le Québec Le Québec présente un profil paradoxal. D'un côté, il dispose d'atouts tangibles : Mila, l'OBVIA, un écosystème montréalais reconnu, une Loi 25 robuste sur les décisions automatisées, une Commission d'accès à l'information active sur l'encadrement de l'IA, et un avis du CCTM publié fin avril sur l'IA dans les milieux de travail. De l'autre, il doit absorber, en quelques semaines, un cadre obligatoire qui exige formation préalable du personnel, gouvernance formelle, classification des données et reddition de comptes. Or, c'est précisément cette couche que Ruhi et Dagne identifient comme le maillon faible canadien. Le Québec a une occasion à saisir : transformer son échéance de juin 2026 en démonstration que la préparation organisationnelle n'est pas un coût, mais un actif stratégique. Trois leviers se dégagent : D'abord, mesurer la capacité plutôt que le compute. Combien d'employés ont effectivement suivi la formation prévue par la directive ? Combien d'organismes ont mis en place leur structure de gouvernance ? Combien de systèmes ont été classifiés et évalués ? Ces indicateurs disent davantage sur la préparation réelle que les téraflops disponibles à Bromont ou à Mirabel. Ensuite, intégrer l'open source dans la commande publique. Plutôt que de retenir uniquement des modèles propriétaires américains, exiger des fournisseurs qu'ils proposent une alternative ouverte ou hybride lorsque la sensibilité des données le justifie. C'est aussi un moyen de donner du sens aux investissements souverains en calcul : faire tourner localement des modèles dont on contrôle réellement la chaîne de valeur. Enfin, traiter la gouvernance comme un avantage concurrentiel et non comme un fardeau. Les institutions qui maîtriseront tôt l'évaluation algorithmique, la documentation des cas d'usage et la révision des décisions automatisées gagneront en crédibilité auprès des citoyens, des partenaires européens (où l'AI Act bascule en application contraignante le 2 août 2026) et des investisseurs. ## Une fenêtre courte L'avertissement des tribunes du Hill Times a une particularité : il n'est pas adressé aux retardataires, mais aux pays qui investissent déjà beaucoup. Le risque n'est pas celui d'un sous-investissement, mais celui d'un mauvais alignement entre ce qu'on finance (l'infrastructure) et ce qui produit de la valeur (la capacité d'usage). Pour le Québec, dont la stratégie d'intégration 2021-2026 arrive à terme et dont le cadre obligatoire entre en application dans moins de deux mois, la fenêtre pour corriger ce déséquilibre est courte. La prochaine stratégie québécoise en IA, attendue dans les douze prochains mois, aura tout intérêt à mettre la préparation organisationnelle au cœur du dispositif, plutôt qu'à la marge. ## Sources - Umar Ruhi, « Canada's AI challenge is readiness, not infrastructure », The Hill Times, 4 mai 2026 : https://www.hilltimes.com/2026/05/04/canadas-ai-challenge-is-readiness-not-infrastructure/501817/ - Teshager W. Dagne, « Canada's AI strategy has a proprietary blind spot », The Hill Times, 4 mai 2026 : https://www.hilltimes.com/2026/05/04/canadas-ai-strategy-has-a-proprietary-blind-spot/501786/ - Bryan Hill, « Canada's next AI challenge is execution », The Hill Times, 29 avril 2026 : https://www.hilltimes.com/2026/04/29/canadas-next-ai-challenge-is-execution/501900/ - Innovation, Sciences et Développement économique Canada, « Canada launches national initiative to build large-scale AI supercomputing capacity », 22 avril 2026 : https://www.canada.ca/en/innovation-science-economic-development/news/2026/04/canada-launches-national-initiative-to-build-large-scale-ai-supercomputing-capacity.html - Cabinet de la ministre de la Cybersécurité et du Numérique, Directive ministérielle sur l'utilisation de l'IA dans l'administration publique, 19 décembre 2025 - Commission d'accès à l'information du Québec, Principes encadrant l'IA générative et travaux préparatoires au rapport quinquennal 2026 : https://www.cai.gouv.qc.ca/ --- ### Hypertrucages : la course législative s'accélère au Québec et à Ottawa avant la reprise parlementaire - URL : https://gouvernance.ai/actualites/hypertrucages-projet-loi-24-quebec-bill-c16-canada - Date : 2026-05-03 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : hypertrucage, deepfake, projet de loi 24, Bill C-16, Assemblée nationale, OPC, AMF - Résumé : À deux jours de la reprise des travaux à l'Assemblée nationale, le projet de loi 24 sur l'usurpation d'identité par hypertrucage et le projet fédéral C-16 convergent vers un encadrement criminel et consumériste de l'IA générative. L'Assemblée nationale du Québec reprend ses travaux le 5 mai 2026, deux jours après la publication de cet article. Au sommet de l'agenda législatif, le projet de loi 24 contre l'usurpation d'identité par hypertrucage figure parmi les dossiers prioritaires du ministre de la Justice Simon Jolin-Barrette. À Ottawa, le projet C-16, intitulé Loi protégeant les victimes, complète son étude en comité après quatre séances en avril. Pour la première fois, les deux ordres de gouvernement avancent en parallèle un cadre juridique spécifique pour les contenus synthétiques générés par intelligence artificielle. ## Le projet de loi 24 québécois : un pouvoir d'ordonnance pour l'OPC et l'AMF Déposé le 26 mars 2026 par le ministre Jolin-Barrette, le projet de loi 24 (Loi protégeant le consommateur contre l'utilisation trompeuse ou frauduleuse de l'identité ou de l'image d'une personne) crée un nouveau régime visant directement les fausses publicités générées par hypertrucage. Le texte permet à l'Office de la protection du consommateur (OPC) et à l'Autorité des marchés financiers (AMF) d'émettre rapidement des ordonnances forçant le retrait d'une publicité utilisant l'image d'une personne sans son consentement, sans passer par les tribunaux. Les sanctions sont substantielles : jusqu'à 125 000 $ par jour ou 5 % du chiffre d'affaires mondial annuel d'une entreprise. Le projet répond à une vague de fraudes utilisant l'image de personnalités publiques québécoises (animateurs, politiciens, dirigeants d'entreprise) pour promouvoir de faux placements financiers ou des produits inexistants. L'Association des directeurs de police du Québec a documenté une hausse de 15 % des victimes d'hypertrucage depuis 2023. La prorogation parlementaire prononcée le 8 avril 2026 par le lieutenant-gouverneur a interrompu temporairement les travaux. Avec la reconvocation du 5 mai, le ministre Jolin-Barrette a déclaré viser une adoption d'ici le 12 juin 2026, ce qui suppose un calendrier d'étude détaillée serré au sein de la Commission des institutions. ## Bill C-16 : l'angle criminel fédéral À Ottawa, le projet de loi C-16 (Protecting Victims Act), déposé en décembre 2025, étend la définition d'« image intime » du Code criminel pour y inclure explicitement les hypertrucages. Le texte criminalise la création et la distribution de contenus sexuels synthétiques non consensuels, élève la menace de diffusion d'images intimes (réelles ou générées) au rang d'infraction criminelle distincte, et qualifie le féminicide de meurtre au premier degré dans certains contextes. Le Comité permanent de la justice et des droits de la personne a tenu quatre séances d'étude en avril 2026 (les 13, 15, 20 et 27), signe d'un avancement actif. Le 22 avril 2026, le ministre fédéral de la Justice Sean Fraser a réaffirmé son ambition d'obtenir l'adoption avant l'ajournement estival. Cette urgence répond notamment à l'enquête élargie du Commissariat à la protection de la vie privée du Canada lancée en janvier 2026 contre la plateforme X et son chatbot Grok, accusés d'avoir généré et diffusé des images sexualisées non consensuelles de personnes identifiables. ## Deux régimes complémentaires, des angles distincts Les deux projets traitent du même phénomène, mais sous des angles juridiques différents. Le PL 24 québécois, ancré dans le droit de la consommation, cible la fraude économique et l'usurpation commerciale, avec un mécanisme administratif rapide (ordonnance de l'OPC ou de l'AMF) plutôt que judiciaire. Le C-16 fédéral, ancré dans le droit criminel, cible les violences sexuelles et de genre, avec un seuil de preuve plus élevé mais des conséquences pénales lourdes. Cette complémentarité n'est ni planifiée ni coordonnée formellement entre les ordres de gouvernement, mais elle dessine un encadrement par recoupement : un même hypertrucage à des fins de fraude publicitaire pourra mobiliser les pouvoirs d'ordonnance québécois, tandis qu'un hypertrucage à caractère sexuel non consensuel relèvera du droit criminel fédéral. La Commission d'accès à l'information du Québec, signataire en février 2026 d'une déclaration commune de 61 autorités de protection des données coordonnée par l'Assemblée mondiale pour la protection de la vie privée, ajoute une troisième couche en matière de protection des renseignements personnels. ## Les angles morts qui demeurent Plusieurs zones grises persistent malgré cette accélération législative. Premièrement, ni le PL 24 ni le C-16 n'imposent d'obligation de marquage ou d'étiquetage des contenus générés par IA, contrairement à l'AI Act européen qui rend ce marquage obligatoire pour les fournisseurs de modèles depuis le 2 août 2025. Deuxièmement, la responsabilité des plateformes hébergeant ces contenus reste limitée : le PL 24 vise principalement l'annonceur, et le C-16 le créateur ou le diffuseur, sans régime spécifique pour les intermédiaires technologiques. Troisièmement, la question de l'extraterritorialité demeure ouverte : un hypertrucage produit hors Canada par un service étranger reste difficile à atteindre, comme l'illustre l'enquête fédérale contre X et xAI. Le rapport international 2026 sur la sécurité de l'IA, présidé par Yoshua Bengio et appuyé par plus de 30 pays, documente d'ailleurs une accélération des capacités de tromperie et d'hyperréalisme des modèles frontière. Le décalage entre la vitesse de l'innovation technique et celle de la réponse législative reste l'un des défis structurels les plus difficiles à résoudre pour les régulateurs québécois et canadiens. ## Ce que la reprise du 5 mai signalera La séance d'ouverture du 5 mai donnera plusieurs signaux importants. La désignation du PL 24 dans les premières lectures, la rapidité avec laquelle les consultations particulières seront tenues, et l'attitude des oppositions face aux pouvoirs d'ordonnance accordés à l'OPC et à l'AMF indiqueront si l'objectif d'adoption avant la pause estivale est réaliste. Une adoption rapide ferait du Québec l'une des premières juridictions nord-américaines à doter ses régulateurs sectoriels de pouvoirs administratifs spécifiques contre l'usurpation d'identité par IA, complétant utilement l'arsenal pénal fédéral. Pour les organisations québécoises (entreprises, médias, organismes publics), l'enjeu pratique est triple : surveiller l'utilisation non autorisée de leurs marques et porte-paroles, mettre en place des canaux de signalement vers l'OPC et l'AMF, et intégrer les futurs pouvoirs d'ordonnance dans leurs plans de réponse aux crises de désinformation. Les conseils d'administration soumis à la Loi 25 devraient également documenter ces risques dans leurs analyses d'impact, notamment lorsqu'ils utilisent eux-mêmes des outils d'IA générative dans leurs communications publiques. ## Sources - Office de la protection du consommateur, Projet de loi no 24, https://www.opc.gouv.qc.ca/a-propos/projet/usurpation - Radio-Canada, Québec propose de lourdes amendes pour usurpation d'identité, https://ici.radio-canada.ca/nouvelle/2241950/projet-loi-24-vol-identite-quebec - La Presse, Québec aux trousses des voleurs d'images, https://www.lapresse.ca/actualites/politique/2026-03-26/fraudes-et-hypertrucages/quebec-aux-trousses-des-voleurs-d-images.php - Parlement du Canada, LEGISinfo C-16, https://www.parl.ca/legisinfo/en/bill/45-1/c-16 - Justice Canada, Loi protégeant les victimes, https://www.justice.gc.ca/eng/csj-sjc/pl/c16/index.html - Comité permanent de la justice et des droits de la personne, Étude du C-16, https://www.ourcommons.ca/Committees/en/JUST/StudyActivity?studyActivityId=13329019 - Commissariat à la protection de la vie privée du Canada, Élargissement de l'enquête sur X, https://www.priv.gc.ca/en/opc-news/news-and-announcements/2026/nr-c_260115/ - CBC News, Privacy commissioner expands probe into X, https://www.cbc.ca/news/politics/x-corp-musk-grok-privacy-commissioner-probe-9.7046608 - Mila, Rapport international sur la sécurité de l'IA, https://mila.quebec/en/news/launch-of-the-first-international-report-on-ai-safety-chaired-by-yoshua-bengio --- ### Arbitrage et IA générative : la Cour supérieure annule une sentence remplie d'hallucinations - URL : https://gouvernance.ai/actualites/arihq-sante-quebec-arbitre-ia-hallucinations - Date : 2026-05-01 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : justice, arbitrage, hallucinations, Cour supérieure, ARIHQ, déontologie, secret du délibéré - Résumé : Dans ARIHQ c. Santé Québec (2026 QCCS 1360), la Cour supérieure annule une sentence arbitrale dont les références doctrinales et jurisprudentielles ont été inventées par un outil d'IA générative. Premier précédent québécois balisant l'usage de l'IA par les décideurs juridictionnels. ## Une sentence arbitrale annulée pour cause d'hallucinations Le 22 avril 2026, le juge Martin F. Sheehan de la Cour supérieure du Québec (chambre commerciale) a rendu une décision appelée à faire date dans la jurisprudence québécoise sur l'intelligence artificielle. Dans ARIHQ c. Santé Québec (2026 QCCS 1360), le tribunal annule une sentence arbitrale au motif que ses références doctrinales et jurisprudentielles étaient des hallucinations produites par un outil d'IA générative. C'est le premier précédent québécois qui pose des balises concrètes sur l'usage de l'IA par les arbitres et, par extension, par tous les décideurs exerçant une fonction juridictionnelle. L'affaire opposait l'Association des ressources intermédiaires d'hébergement du Québec (ARIHQ) et le Centre de santé Osman au CIUSSS du Centre-Sud-de-l'Île-de-Montréal, dans un différend portant sur 1,225 million de dollars liés à des places d'hébergement non pourvues entre 2019 et 2022. L'arbitre avait initialement rejeté la réclamation pour tardiveté. La Cour supérieure ne tranche pas sur le fond, mais elle invalide le processus parce que la sentence reposait, en partie, sur du vide juridique. ## Quatre références inventées de toutes pièces Lors de l'examen de la sentence, les avocats de la demanderesse ont découvert que plusieurs autorités citées par l'arbitre n'existaient tout simplement pas. La Cour supérieure recense quatre catégories de fabrications : - un article attribué au professeur Frédéric Bachand qui n'a jamais été publié, - une fausse décision Ville de Montréal c. Syndicat (2005 QCCA 591), - une fausse décision Groleau et Groupe Pages Jaunes (2011 QCCS 5386), - une fausse décision Tremblay c. Commission scolaire (2002 CanLII 24357). Aucune de ces références n'a pu être retracée dans les bases de données juridiques. L'arbitre n'avait pas identifié l'outil utilisé, mais le profil des erreurs (fausses citations crédibles, parfois assorties de numéros de paragraphe précis) correspond au comportement classique des grands modèles de langage lorsqu'ils tentent de combler des trous dans leurs connaissances. ## Le principe : delegatus non potest delegare Le raisonnement du juge Sheehan repose sur un principe ancien du droit administratif et arbitral, exprimé par la maxime latine delegatus non potest delegare : celui à qui un pouvoir est délégué ne peut le déléguer à son tour. Les parties à un arbitrage choisissent un arbitre précis, en raison de son expertise, de sa réputation ou de son indépendance. Confier la rédaction des motifs ou la recherche des autorités à un outil d'IA, sans contrôle humain rigoureux, revient à transférer une partie du pouvoir décisionnel à une machine que les parties n'ont jamais choisie. Le tribunal articule trois piliers complémentaires. D'abord, l'autonomie de la volonté des parties, fondement du droit arbitral québécois, exige que la décision émane bien du décideur retenu. Ensuite, le processus de rédaction des motifs n'est pas une simple formalité : il force le décideur à structurer son raisonnement, à confronter les arguments et à éprouver ses propres conclusions. La Cour suprême avait déjà affirmé ce principe dans Baker c. Canada en 1999. Enfin, le secret du délibéré, codifié à l'article 644 du Code de procédure civile, est compromis lorsque des éléments du dossier sont transmis à un outil externe dont les serveurs et les politiques de conservation échappent au contrôle de l'arbitre. ## Cinq risques systémiques Au-delà du cas particulier, le jugement énumère cinq risques que pose l'usage de l'IA générative dans une fonction juridictionnelle : 1. les hallucinations, qui produisent de fausses références d'apparence crédible, indétectables sans vérification minutieuse, 2. l'absence de discrétion judiciaire, l'IA ne pouvant intégrer les valeurs communautaires ni le contexte particulier d'un dossier, 3. les biais algorithmiques, hérités des données d'entraînement et opaques par nature, 4. la confidentialité compromise lorsque les données du dossier alimentent un service externe, 5. l'érosion de la confiance publique envers le système de justice si la frontière entre la machine et le décideur humain devient floue. Cette grille de lecture rejoint largement celle développée par le Conseil canadien de la magistrature dans ses Lignes directrices pour l'utilisation de l'IA dans les tribunaux canadiens (septembre 2024) et par l'Avis à la communauté juridique de la Cour supérieure du Québec d'octobre 2023. ## Encadrer plutôt qu'interdire Le juge Sheehan refuse explicitement l'interdiction absolue. S'inspirant de la décision Specter Aviation c. Laprade (2025 QCCS 3521), il rappelle que la technologie doit être encadrée, non proscrite. L'IA peut donc assister un arbitre ou un juge dans des tâches comme la traduction, la mise en forme ou la recherche initiale, à condition que la responsabilité humaine demeure entière sur les motifs et les autorités citées. La sanction reste proportionnelle. Le tribunal regarde la nature du manquement procédural, l'atteinte à l'intégrité du processus et l'impact concret de l'IA sur la sentence. Dans ARIHQ, ces trois critères convergent : les fausses autorités étaient au cœur du raisonnement de l'arbitre, ce qui justifiait l'annulation. ## Implications pour la gouvernance québécoise de l'IA Pour les arbitres, juges administratifs et tribunaux spécialisés, la décision impose une diligence renforcée : vérifier chaque citation générée par IA, documenter les outils utilisés, refuser d'introduire des éléments confidentiels du dossier dans des services externes et conserver la rédaction des motifs comme un acte exclusivement humain. Pour les ordres professionnels et les organismes de régulation, la décision conforte les chantiers en cours. Le Barreau du Québec, la Chambre des notaires, les conseils de la magistrature et les institutions arbitrales (Centre canadien d'arbitrage commercial, ICA, ADR Institute of Canada) ont des balises directement opposables : un arbitre ou un juge qui délègue sa fonction décisionnelle à un modèle de langage s'expose à la nullité de sa décision. Pour le débat public sur la gouvernance de l'IA au Québec, ARIHQ démontre que les tribunaux sont capables d'agir sans attendre le législateur. Faute de loi-cadre fédérale (la LIAD a expiré avec la dissolution du Parlement en 2025) et en l'absence de directive sectorielle spécifique pour la justice privée, c'est la jurisprudence qui établit les premiers garde-fous. La régulation par le bas, fondée sur les principes existants du droit civil et du droit administratif, vient ici suppléer le vide normatif. ## Sources - Justice-Québec, La Cour supérieure annule une sentence arbitrale rédigée à l'aide de l'intelligence artificielle, https://www.justice-quebec.ca/3142878_la-cour-superieure-annule-une-sentence-arbitrale-redigee-a-l-aide-de-l-intelligence-artificielle - Droit-inc, Utilisation de l'IA générative devant les tribunaux : la Cour supérieure du Québec sanctionne une partie non représentée, https://www.droit-inc.com/conseils-carriere/opinions/utilisation-de-lia-generative-devant-les-tribunaux-la-cour-superieure-du-quebec-sanctionne-une-partie-non-representee - Conseil canadien de la magistrature, Lignes directrices pour l'utilisation de l'IA dans les tribunaux canadiens, septembre 2024 - Cour supérieure du Québec, Avis à la communauté juridique sur l'IA, 24 octobre 2023 - Code de procédure civile du Québec, article 644 (secret du délibéré) - Cour suprême du Canada, Baker c. Canada (Ministre de la Citoyenneté et de l'Immigration), [1999] 2 R.C.S. 817 --- ### Avis du CCTM sur l'IA au travail : consensus patronal-syndical historique au Québec - URL : https://gouvernance.ai/actualites/avis-cctm-ia-milieux-travail-quebec - Date : 2026-04-30 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : CCTM, milieu de travail, syndicats, employeurs, Jean Boulet, gouvernance algorithmique, santé sécurité - Résumé : Le 29 avril 2026, le ministre Jean Boulet rend public un avis du Comité consultatif du travail et de la main-d'œuvre, adopté à l'unanimité par les acteurs patronaux et syndicaux, qui propose 18 recommandations pour encadrer l'IA en milieu de travail. ## Un avis adopté à l'unanimité Le 29 avril 2026, le ministre du Travail Jean Boulet a rendu public l'avis du Comité consultatif du travail et de la main-d'œuvre (CCTM) sur l'implantation et l'usage des systèmes d'intelligence artificielle dans les milieux de travail au Québec. La particularité de ce document, qui propose 18 recommandations, tient à son mode d'adoption : il a été approuvé à l'unanimité par les représentants patronaux et syndicaux qui composent le comité. Dans un contexte international où l'encadrement de l'IA au travail oppose souvent employeurs et organisations syndicales, ce consensus québécois constitue une rareté. Le CCTM est un organisme paritaire qui réunit les principales associations d'employeurs et les centrales syndicales du Québec. Sa fonction consultative auprès du ministre du Travail lui confère un poids particulier dans la définition des orientations gouvernementales en matière de relations de travail. L'avis publié hier découle d'un mandat ministériel confié en octobre dernier, après plusieurs mois de consultations sur la transformation numérique des milieux de travail. ## Cinq priorités d'action structurantes L'avis articule ses 18 recommandations autour de cinq priorités d'action. La première concerne l'encadrement des enjeux de santé et de sécurité au travail liés à l'IA, un angle souvent négligé dans les débats publics qui privilégient les questions de remplacement d'emplois. Le CCTM identifie pourtant des risques émergents : surcharge cognitive liée aux interactions homme-machine, stress associé à la surveillance algorithmique continue, ergonomie des postes intégrant des assistants intelligents, atteinte à la santé psychologique des travailleurs soumis à une cadence pilotée par des systèmes prédictifs. La deuxième priorité porte sur la gouvernance et l'encadrement des algorithmes. L'avis recommande la mise en place de mécanismes de transparence sur les systèmes utilisés, leurs finalités et leurs paramètres décisionnels. Il insiste sur le maintien du jugement humain dans toutes les décisions ayant un impact significatif sur les travailleurs, notamment l'embauche, l'évaluation, la discipline et la cessation d'emploi. La troisième priorité vise la prévention des biais discriminatoires. Le CCTM appelle à des audits réguliers des systèmes d'IA déployés en gestion des ressources humaines, à la diversification des données d'entraînement et à des mécanismes de recours pour les travailleurs qui s'estiment lésés par une décision algorithmique. La quatrième priorité porte sur la protection de la vie privée et des renseignements personnels, en cohérence avec la Loi 25 et le cadre établi par la Commission d'accès à l'information du Québec. Les outils de surveillance algorithmique, les systèmes de reconnaissance biométrique et les plateformes d'analyse des communications internes font l'objet d'une attention particulière. La cinquième priorité concerne la formation et le développement des compétences. L'avis recommande des investissements significatifs pour accompagner la transition numérique des travailleurs, avec une attention particulière aux populations vulnérables face à l'automatisation. ## Le principe directeur : l'humain au cœur des décisions L'avis du CCTM repose sur un principe fondamental : l'humain doit demeurer au cœur des décisions relatives à l'implantation et à l'utilisation des systèmes d'IA dans les milieux de travail. Les outils intelligents doivent soutenir le jugement humain, et non s'y substituer. Cette formulation, partagée par les centrales syndicales et les associations patronales, s'inscrit dans la ligne tracée par d'autres juridictions qui adoptent des cadres similaires, comme l'AI Act européen avec sa notion de supervision humaine pour les systèmes à haut risque. François Lamoureux, président du CCTM, a souligné que ce consensus illustre la vitalité du modèle québécois de dialogue social, où l'innovation économique et la qualité des emplois sont vues comme complémentaires. Le ministre Boulet, pour sa part, a insisté sur le caractère transparent que doit prendre l'intégration de l'IA, qui doit profiter aux travailleurs autant qu'aux employeurs. ## Un guide ministériel à venir Le ministre du Travail a annoncé qu'il mandate son ministère pour préparer un guide pratique destiné à soutenir les milieux de travail dans l'implantation et l'usage des systèmes d'IA. Ce guide opérationnalisera les recommandations de l'avis et fournira des outils concrets aux gestionnaires, aux représentants syndicaux et aux comités de santé et sécurité. Le calendrier de publication n'a pas été précisé, mais les acteurs du terrain peuvent s'attendre à un déploiement dans les prochains mois. Cette annonce s'inscrit dans un mouvement plus large de structuration de la gouvernance de l'IA au Québec. Elle complète la directive sur l'IA générative dans la fonction publique, le projet de loi 75 sur la réforme de la Loi 25, et les travaux de la Commission d'accès à l'information sur les systèmes décisionnels automatisés. L'approche québécoise se distingue par sa volonté d'articuler une gouvernance verticale, portée par le législateur et les régulateurs, avec une gouvernance horizontale, portée par les partenaires sociaux dans les milieux de travail. ## Ce que les organisations doivent retenir Pour les employeurs québécois, l'avis du CCTM trace les contours de ce qui sera bientôt attendu en matière de gouvernance interne de l'IA. Les organisations qui anticipent ces exigences en construisant dès maintenant des politiques internes, en formant leurs gestionnaires et en outillant leurs comités paritaires se positionneront favorablement. Les recommandations sur la transparence algorithmique, la prévention des biais et la formation continue dessinent un référentiel que les futurs guides ministériels viendront préciser. Pour les syndicats, l'avis fournit un appui institutionnel solide pour porter les enjeux de l'IA dans les négociations collectives, les relations de travail courantes et les comités de santé et sécurité. La référence partagée que constitue désormais cet avis facilitera les discussions entre les parties. ## Sources - [Gouvernement du Québec, communiqué du 29 avril 2026](https://www.quebec.ca/nouvelles/actualites/details/avis-du-comite-consultatif-du-travail-et-de-la-main-doeuvre-le-ministre-du-travail-devoile-un-consensus-patronal-et-syndical-pour-encadrer-lintelligence-artificielle-70054) - [Newswire, communiqué officiel du CCTM](https://www.newswire.ca/fr/news-releases/avis-du-comite-consultatif-du-travail-et-de-la-main-d-oeuvre-le-ministre-du-travail-devoile-un-consensus-patronal-et-syndical-pour-encadrer-l-intelligence-artificielle-890405418.html) - [Page officielle du CCTM, Gouvernement du Québec](https://www.quebec.ca/gouvernement/ministeres-organismes/travail/coordonnees-structure/organismes-lies/comite-consultatif-travail-main-oeuvre) --- ### Open Agent Governance : un protocole ouvert pour documenter et gouverner les décisions des agents IA - URL : https://gouvernance.ai/actualites/open-agent-governance-protocole-decisions-agents-ia - Date : 2026-04-29 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : agents IA, gouvernance IA, ADP, standard ouvert, Loi 25, NIST AI RMF, AI Act, conformité - Résumé : L'initiative Open Agent Governance publie l'Agent Decision Protocol, une spécification ouverte sous licence Apache 2.0 pour classifier, tracer et auditer les décisions prises par des agents IA autonomes, avec un mapping vers la Loi 25, l'AI Act et le NIST AI RMF. ## Un standard manquant pour les décisions des agents En 2026, l'IA agentique a quitté le territoire des démonstrations. Les agents autonomes lisent des courriels, exécutent des transactions, modifient des fichiers, déclenchent des actions dans des systèmes tiers. Et plusieurs autorités l'ont rappelé en quelques semaines : Microsoft a publié son Agent Governance Toolkit le 2 avril 2026, le NIST a lancé son AI Agent Standards Initiative au début de l'année, l'ANSSI a formellement déconseillé le déploiement d'agents autonomes en production le 13 avril, et la Cloud Security Alliance pousse son Agentic Trust Framework. Tout le monde voit le même mur arriver : on déploie des systèmes qui prennent des décisions, mais aucun standard ouvert ne dit comment ces décisions doivent être documentées, classifiées et auditées. C'est précisément le vide que cherche à combler une nouvelle initiative open source : Open Agent Governance, qui publie l'Agent Decision Protocol (ADP) sous licence Apache 2.0. Le projet se veut neutre, indépendant des fournisseurs, et explicitement orienté conformité multi-juridictionnelle, incluant la Loi 25 québécoise. ## Le problème que tente de résoudre ADP Quand un agent IA refuse une transaction, modifie un dossier client, escalade un incident, ou choisit de ne pas escalader, qui peut répondre à ces quatre questions ? - Quels agents avaient l'autorité de prendre cette décision ? - Quand l'approbation humaine était-elle obligatoire ? - Comment retracer la chaîne de responsabilité ? - Quelles preuves d'audit l'organisation peut-elle fournir à un régulateur ? Dans la plupart des déploiements actuels, les réponses sont propriétaires, dispersées, ou tout simplement absentes. ADP propose un vocabulaire commun et une structure interopérable pour répondre à ces quatre questions de manière auditable. ## Une spécification en sept documents Le protocole se présente comme un ensemble de sept documents de spécification, déjà disponibles publiquement sur GitHub : 1. **Autonomy Taxonomy** : cinq niveaux d'autonomie (A1 à A5), du mode supervisé à l'autonomie complète, qui servent de base à toutes les autres décisions de gouvernance. 2. **Decision Classification** : un cadre de classification à trois axes (type, risque, réversibilité) appliqué à chaque décision. 3. **Trace Format** : un format de journal d'audit chaîné par hash SHA-256, conçu pour être inviolable et vérifiable a posteriori. 4. **Authorization Matrix** : une matrice à deux dimensions croisant niveau d'autonomie et type de décision pour déterminer les règles d'approbation. 5. **Policy Schema** : six gabarits de politiques couvrant les communications, les finances, l'accès aux données et autres domaines sensibles. 6. **Regulatory Mapping** : un mapping pré-établi vers six cadres réglementaires (AI Act, RGPD, SOC 2, ISO 27001, NIST AI RMF, Loi 25 du Québec). 7. **Agent Registry** : un schéma standardisé d'identité et de permissions pour chaque agent déployé dans une organisation. L'ensemble est validé par un JSON Schema dans la version v0.2, ce qui permet une intégration directe dans les pipelines CI/CD et les plateformes de gouvernance existantes. ## La classification à trois axes : le cœur du protocole L'élément le plus structurant d'ADP est sans doute la classification à trois axes que doit recevoir chaque décision prise par un agent. **Type de décision (D1 à D4)** : D1 couvre les décisions opérationnelles (exécution dans le périmètre prévu), D2 les choix tactiques (méthodes alternatives), D3 les décisions stratégiques (impact organisationnel), et D4 les décisions de modification de l'agent lui-même, qui exigent toujours une approbation humaine. **Niveau de risque (R1 à R4)** : R1 désigne un risque négligeable (réversible, aucune donnée sensible), R2 un risque modéré, R3 un risque élevé impliquant des personnes ou des opérations critiques, et R4 un risque critique systématiquement escaladé. **Réversibilité** : totale, partielle ou irréversible. Une décision irréversible (suppression de données, paiement émis, communication publique) déclenche par défaut une exigence d'approbation, indépendamment des deux autres axes. L'objectif est simple : permettre à n'importe quelle organisation de déterminer, à partir d'un triplet (D, R, réversibilité), si la décision peut être prise de manière autonome, requiert une validation humaine, ou doit être bloquée. ## Traçabilité par hash chaîné : auditer sans confiance Le format de trace défini par ADP utilise une chaîne de hash SHA-256 inspirée des journaux d'événements en sécurité. Chaque entrée référence le hash de l'entrée précédente, ce qui rend toute modification rétroactive du journal détectable. Pour les régulateurs et les auditeurs, c'est un changement de paradigme : on ne demande plus à l'organisation de jurer que ses logs sont fiables, on lui demande de fournir une preuve cryptographique d'intégrité. Cette approche s'aligne directement sur les exigences de transparence et de traçabilité de l'AI Act européen et de la directive du Conseil du Trésor québécois sur l'utilisation de l'IA dans le secteur public, dont les organismes doivent se conformer d'ici juin 2026. ## Un mapping réglementaire qui parle au Québec L'Agent Decision Protocol revendique une particularité dans le paysage : il pré-mappe ses contrôles vers la Loi 25, en plus des cadres internationaux habituels (AI Act, RGPD, SOC 2, ISO 27001, NIST AI RMF). Concrètement, cela signifie qu'une organisation québécoise qui adopte ADP dispose d'une grille préétablie pour démontrer le respect des évaluations des facteurs relatifs à la vie privée (EFVP), des obligations de transparence des décisions automatisées prévues à l'article 12.1 de la Loi sur le secteur privé, et des exigences plus récentes de l'arrêté ministériel sur l'IA dans l'administration publique. C'est un argument significatif pour les directions de la gouvernance et de la conformité dans les ministères, les municipalités, les institutions financières encadrées par l'AMF, et les établissements de santé : un standard ouvert, sans verrou propriétaire, qui parle nativement leur langage réglementaire. ## Pourquoi un standard ouvert plutôt qu'un produit Les outils propriétaires existent déjà. Microsoft, Databricks, IBM proposent leurs propres couches de gouvernance pour les agents IA. Mais ces outils impliquent un verrouillage technologique et ne se prêtent pas naturellement à la portabilité entre fournisseurs. ADP fait le pari inverse : une spécification ouverte sous Apache 2.0, avec une implémentation de référence (un serveur MCP est prévu pour la version v0.3), que n'importe quel éditeur peut adopter ou étendre. L'analogie n'est pas anodine : c'est la même logique qui a fait gagner OpenTelemetry contre les SDK propriétaires d'observabilité, ou OAuth contre les schémas d'authentification maison. Un standard ouvert ne supprime pas les produits commerciaux, il définit le terrain sur lequel ils s'affrontent et garantit l'interopérabilité. ## État du projet et perspectives Les versions v0.1 (sept documents de spécification) et v0.2 (validation JSON Schema) sont déjà publiées. La feuille de route prévoit v0.3 avec une implémentation de serveur MCP (Model Context Protocol), puis v1.0 avec une spécification stable et une plateforme beta. Le code, les spécifications et la documentation sont accessibles sur le dépôt GitHub OpenAgentGovernance/agent-decision-protocol. L'initiative invite explicitement les organisations à se déclarer comme adoptrices via une pull request publique, et à contribuer aux versions successives. Pour les organisations québécoises qui doivent rendre des comptes d'ici juin 2026 sur leurs usages de l'IA, c'est une occasion concrète de participer à la définition d'un standard, plutôt que de subir un cadre imposé par les fournisseurs dominants. ## Conclusion : un terrain à occuper La gouvernance des agents IA est en train de se construire en 2026, simultanément à l'échelle des autorités nationales, des grands éditeurs et des consortiums de cybersécurité. Open Agent Governance n'est pas la seule proposition sur la table, mais elle a deux caractéristiques rares : elle est nativement ouverte, et elle est nativement multi-juridictionnelle, incluant le Québec dans son cadre. Pour les directions de gouvernance qui cherchent un point d'ancrage neutre dans un paysage en mouvement, c'est un projet à suivre, et probablement à tester. ## Sources - Open Agent Governance, site officiel : https://openagentgovernance.org/ - Agent Decision Protocol, dépôt GitHub : https://github.com/OpenAgentGovernance/agent-decision-protocol - Microsoft Open Source Blog, Introducing the Agent Governance Toolkit : https://opensource.microsoft.com/blog/2026/04/02/introducing-the-agent-governance-toolkit-open-source-runtime-security-for-ai-agents/ - CERT-FR, Vulnérabilités et risques des produits d'automatisation par IA agentique sur les postes de travail (CERTFR-2026-ACT-016) : https://www.cert.ssi.gouv.fr/actualite/CERTFR-2026-ACT-016/ - Cloud Security Alliance, The Agentic Trust Framework : https://cloudsecurityalliance.org/blog/2026/02/02/the-agentic-trust-framework-zero-trust-governance-for-ai-agents - Pillsbury Law, NIST Launches AI Agent Standards Initiative : https://www.pillsburylaw.com/en/news-and-insights/nist-ai-agent-standards.html - Gouvernement du Québec, Stratégie d'intégration de l'IA dans l'administration publique 2021-2026 : https://www.quebec.ca/gouvernement/politiques-orientations/strategie-integration-ia-administration-publique-2021-2026 --- ### Manitoba interdit les chatbots IA aux mineurs : précédent canadien, signal pour le Québec - URL : https://gouvernance.ai/actualites/manitoba-interdiction-chatbots-ia-mineurs-quebec - Date : 2026-04-28 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : manitoba, chatbots, mineurs, gouvernance ia, quebec - Résumé : Le 26 avril, le premier ministre Wab Kinew a annoncé que le Manitoba deviendrait la première juridiction canadienne à interdire les chatbots d'IA aux moins de 16 ans. La Colombie-Britannique presse Ottawa d'agir. Le Québec, lui, se tait pour l'instant. Le samedi 26 avril 2026, devant le congrès du Nouveau Parti démocratique manitobain, le premier ministre Wab Kinew a confirmé que sa province deviendrait la première juridiction canadienne à interdire les chatbots d'intelligence artificielle aux mineurs. Annoncée en même temps qu'un projet de bannissement des réseaux sociaux pour les moins de 16 ans, la mesure va plus loin que la loi australienne adoptée en 2024 (qui visait uniquement les plateformes sociales) en englobant explicitement ChatGPT, Claude et les autres assistants conversationnels. Deux jours plus tard, la procureure générale de la Colombie-Britannique a publiquement appuyé l'initiative et appelé Ottawa à légiférer au niveau fédéral. ## Une mesure inédite au Canada Le projet manitobain reste pour l'instant une déclaration politique : aucun texte législatif n'a encore été déposé, l'âge limite officiel n'est pas confirmé (la lecture la plus probable est 16 ans, par cohérence avec le volet réseaux sociaux) et le calendrier de mise en oeuvre demeure flou. Selon le gouvernement provincial, une première phase pourrait être déployée dans les écoles, sur le modèle de l'interdiction des téléphones cellulaires en classe instaurée en 2024. Le premier ministre Kinew a justifié sa démarche en termes sans ambiguïté : « les médias sociaux et désormais les chatbots d'IA sont utilisés pour pirater l'attention de nos enfants. Ces plateformes ne sont pas neutres : elles sont conçues pour maximiser l'engagement et générer des revenus pour une poignée d'oligarques technologiques ». Plusieurs sources évoquent des amendes pouvant atteindre plusieurs milliards de dollars pour les plateformes non conformes, ciblant les fournisseurs et non les enfants ou les parents. ## La pression monte sur Ottawa L'annonce manitobaine ne reste pas isolée. Le 28 avril, la procureure générale de la Colombie-Britannique, Niki Sharma, a déclaré qu'une interdiction sans inclure les chatbots serait « sans valeur », rappelant que « toutes les plateformes sociales intègrent désormais de l'IA ». Ottawa, selon elle, dispose des « meilleurs outils et de la meilleure capacité » pour mettre en place une telle mesure. La Saskatchewan a lancé une consultation publique en mars sur un projet comparable, et le Parti libéral fédéral a approuvé en convention le principe d'un âge minimum de 16 ans pour l'accès aux réseaux sociaux. Le ministre fédéral de l'Intelligence artificielle et de l'Innovation numérique, Evan Solomon, n'a pas encore réagi publiquement à l'annonce manitobaine. Sa doctrine déclarée, « light, tight, right », privilégie une réglementation pragmatique de l'IA centrée sur la vie privée, le droit d'auteur et la protection des données, plutôt qu'une législation prescriptive de type AIDA. La pression provinciale risque toutefois d'obliger le ministre à préciser sa position sur la protection des mineurs avant le dépôt de son successeur à AIDA, attendu cette année. ## Le Québec sous pression? Aucune réaction publique du gouvernement du Québec n'a filtré au moment de la publication. La province dispose pourtant de plusieurs leviers pour intervenir. La Loi 25 encadre déjà les décisions automatisées fondées sur des renseignements personnels et impose des obligations de transparence. Une commission parlementaire de l'Assemblée nationale avait recommandé en 2024 d'interdire l'ouverture de comptes de réseaux sociaux aux moins de 14 ans sans consentement parental, sans qu'un projet de loi ne soit déposé. Une pétition citoyenne réclamant une limite à 16 ans a recueilli plus de 16 000 signatures. Sur le terrain de l'IA générative spécifiquement, la Commission d'accès à l'information n'a pas pris position publique sur l'utilisation des chatbots par les mineurs. Elle prépare néanmoins son rapport quinquennal 2026 dans lequel l'intelligence artificielle devrait occuper une place centrale. Le ministère de la Cybersécurité et du Numérique avait, de son côté, publié en 2025 une directive sur l'utilisation responsable de l'IA dans la fonction publique (échéance de mise en conformité fixée à juin 2026), mais celle-ci ne touche pas l'usage privé des outils par les jeunes. ## Des défis de mise en oeuvre considérables Le défi technique de l'application reste entier. Vérifier l'âge d'un utilisateur de chatbot suppose soit une identité numérique vérifiée (que ni le Manitoba ni le fédéral ne possèdent à grande échelle), soit des techniques d'estimation d'âge biométriques posant elles-mêmes des problèmes de protection des renseignements personnels. Le professeur Michael Geist de l'Université d'Ottawa a critiqué l'approche, estimant qu'« une interdiction permet aux plateformes de se défausser de la responsabilité de ce qui cause réellement les préjudices ». Helen Hayes, de l'Université McGill, rappelle qu'en l'absence d'un régulateur du numérique, le Canada continue de « s'en remettre aux plateformes pour s'autoréguler ». L'autre angle mort concerne les usages éducatifs et thérapeutiques légitimes des chatbots, qui se multiplient dans les écoles et les services de santé adolescents. Une interdiction générale pourrait fermer la porte à des outils déjà utilisés dans le cadre scolaire, sans alternative claire. ## Implications pour la gouvernance de l'IA Au-delà du débat sur la protection des mineurs, l'initiative manitobaine ouvre une nouvelle ère réglementaire au Canada. Elle confirme que les provinces, faute de cadre fédéral, sont prêtes à occuper le vide laissé par la mort d'AIDA et à adopter des mesures sectorielles, parfois plus ambitieuses que les États fédérés européens ou américains. Elle illustre aussi la tension entre approche par les risques (à laquelle le Québec et l'Union européenne souscrivent) et approche par les usages ou les utilisateurs (la voie manitobaine). Pour les organisations québécoises qui développent ou déploient des assistants conversationnels, le signal est clair : un cadre provincial fragmenté se met en place, et le Québec devra tôt ou tard se positionner. Soit en suivant le Manitoba avec une interdiction par âge, soit en privilégiant des obligations de conception (filtres, modes mineurs, transparence renforcée), soit en attendant qu'Ottawa tranche, au risque d'arriver après la bataille. ## Sources - Globe and Mail, « Social media, AI chatbot ban for youth is on the way, Manitoba Premier says », 26 avril 2026 : https://www.theglobeandmail.com/canada/article-manitoba-premier-says-social-media-ai-chatbot-ban-for-youth-is-on-the/ - The Star, « Canadian province of Manitoba says it will ban social media, AI for youth », 27 avril 2026 : https://www.thestar.com.my/tech/tech-news/2026/04/27/canadian-province-of-manitoba-says-it-will-ban-social-media-ai-for-youth - Bloomberg, « Manitoba Plans Ban on Social Media, AI Chatbots for Youth, Premier Says », 26 avril 2026 : https://www.bloomberg.com/news/articles/2026-04-26/canadian-province-of-manitoba-says-it-will-ban-social-media-ai-for-youth - The Progress (Chilliwack), « B.C. urges feds to ban teens and children from using social media, AI chatbots », 28 avril 2026 : https://theprogress.com/2026/04/28/b-c-urges-feds-to-ban-teens-and-children-from-using-social-media-ai-chatbots/ - CBC News, « Manitoba ban on AI chatbots, social media to come with host of technical challenges, privacy concerns: experts » : https://www.cbc.ca/news/canada/manitoba/ai-social-media-youth-ban-experts-9.7178638 - Commission d'accès à l'information du Québec, mémoire « L'IA au travail : pour un meilleur encadrement » : https://www.cai.gouv.qc.ca/uploads/pdfs/CAI_ME_Transfo_Travail.pdf --- ### Digital Omnibus européen : report des obligations à haut risque jusqu'en 2027, ce que cela change pour le Québec - URL : https://gouvernance.ai/actualites/digital-omnibus-ai-act-report-haut-risque-quebec - Date : 2026-04-28 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : AI Act, Digital Omnibus, Union européenne, haut risque, Québec, gouvernance IA - Résumé : Bruxelles devrait sceller aujourd'hui un accord politique sur le Digital Omnibus, repoussant à décembre 2027 l'application des obligations pour les systèmes d'IA à haut risque. Une décision aux échos directs sur la trajectoire réglementaire québécoise. ## Un accord politique attendu aujourd'hui à Bruxelles Les négociateurs du Parlement européen et du Conseil de l'Union européenne sont attendus le 28 avril 2026 à un point pivot des discussions interinstitutionnelles sur le Digital Omnibus, le paquet législatif chargé de réajuster le calendrier d'application de l'AI Act. Selon l'analyse publiée par A&O Shearman, un texte consolidé est anticipé pour cette journée, avec une approbation parlementaire ciblée en mai, une validation du Conseil en juin et une publication officielle prévue pour juillet 2026, juste avant l'échéance de référence du 2 août 2026. Le déclencheur politique de ce calendrier resserré est limpide : sans accord rapide, les obligations applicables aux systèmes d'IA à haut risque seraient devenues exécutoires dans à peine plus de trois mois, alors que les autorités nationales de surveillance restent inégalement désignées d'un État membre à l'autre. ## Ce que prévoit le Digital Omnibus Le compromis qui se dégage des négociations remplace le mécanisme conditionnel proposé initialement par la Commission européenne par des dates fixes : - **2 décembre 2027** pour les systèmes d'IA à haut risque autonomes listés à l'Annexe III (recrutement, évaluation du crédit, enseignement, application de la loi, services publics essentiels). - **2 août 2028** pour les systèmes d'IA intégrés dans des produits régulés par la législation sectorielle européenne, listés à l'Annexe I (dispositifs médicaux, machines, jouets, équipements de protection). Les obligations déjà entrées en vigueur, notamment celles relatives aux pratiques interdites depuis février 2025 et aux modèles d'IA à usage général depuis août 2025, ne sont pas remises en cause. Plusieurs autres ajustements font consensus entre Parlement et Conseil : interdiction explicite des systèmes d'IA produisant de l'imagerie intime non consentie ou du matériel d'exploitation sexuelle d'enfants, réintroduction de l'obligation d'enregistrement pour les systèmes à haut risque exemptés sous conditions, allègements proportionnels pour les PME, et nouvelle base juridique permettant le traitement de données personnelles à des fins de détection et correction des biais algorithmiques. ## Les points encore en discussion Deux dossiers font l'objet de divergences significatives. Le premier porte sur la portée de la supervision : le Parlement souhaite étendre la compétence du Bureau européen de l'IA aux fournisseurs appartenant au même groupe corporatif, alors que le Conseil cherche à la restreindre aux entités juridiques distinctes et à introduire des exemptions pour la législation sectorielle et les infrastructures critiques. Le second concerne l'intégration horizontale des exigences IA dans les législations sur les machines et les dispositifs médicaux : le Parlement la défend, le Conseil l'écarte. Ce désaccord détermine si, en pratique, un fabricant d'équipements médicaux verra ses obligations IA fondues dans le règlement sur les dispositifs médicaux ou traitées en parallèle. ## Une lecture nécessaire pour le Québec et le Canada Le report des obligations à haut risque envoie un signal clair aux gouvernements qui calquent partiellement leur approche réglementaire sur l'AI Act. Trois enseignements méritent l'attention au Québec. D'abord, **la classification par niveau de risque conserve sa centralité**. Le Digital Omnibus ne remet pas en cause la pyramide de risques, il en redéploie le calendrier. Les organismes publics québécois assujettis à l'Indication d'application du ministère de la Cybersécurité et du Numérique, dont les exigences de gouvernance et de protection des données doivent être opérationnelles d'ici juin 2026, restent soumis à un calendrier nettement plus serré que celui de leurs homologues européens. Ensuite, **la pression sur la maturité opérationnelle des autorités de surveillance s'accentue**. Si plusieurs États membres européens n'ont pas encore désigné formellement leurs autorités compétentes, c'est précisément l'argument qui a justifié le report. La Commission d'accès à l'information du Québec, dont le rapport quinquennal attendu en 2026 doit produire des recommandations formelles au législateur, hérite d'un mandat plus exigeant : démontrer qu'elle dispose des ressources techniques pour exercer une supervision algorithmique réellement contraignante. Enfin, **l'extraterritorialité de l'AI Act ne disparaît pas, elle se déplace dans le temps**. Les entreprises québécoises qui opèrent sur le marché européen continueront à devoir documenter leurs systèmes à haut risque, mais disposeront de dix-huit mois supplémentaires pour rendre leur conformité opérationnelle. Ce délai change la planification, pas la finalité. ## Le risque d'un découplage réglementaire Plusieurs organisations de la société civile européenne, dont le Centre Jacques Delors et le réseau European Digital Rights, ont publiquement contesté le rythme de ces ajustements, y voyant une concession aux acteurs industriels au détriment des droits fondamentaux. Au Québec, où le débat sur la souveraineté numérique et la protection de la langue française entretient une vigilance particulière à l'égard des asymétries entre cadres juridiques, ce report soulève une question sensible : faut-il aligner le calendrier québécois sur le rythme européen révisé, ou maintenir une trajectoire propre, plus rapide, qui pourrait faire du Québec un laboratoire normatif distinct ? La réponse politique se précisera dans les mois à venir, à mesure que le rapport quinquennal de la CAI et la prochaine version de la Stratégie d'intégration de l'IA dans l'administration publique 2021-2026 seront déposés. Mais le signal envoyé par Bruxelles est désormais sur la table. ## Sources - A&O Shearman, "Digital Omnibus on AI: What is really on the table as trilogues begin", 2026 : https://www.aoshearman.com/en/insights/digital-omnibus-on-ai-what-is-really-on-the-table-as-trilogues-begin - Ropes & Gray LLP, "AI Omnibus: Trilogue Underway, What to Expect as Negotiations Progress", 2026 : https://www.ropesgray.com/en/insights/viewpoints/102mquz/ai-omnibus-trilogue-underwaywhat-to-expect-as-negotiations-progress - LEOsphere, "EU AI Act implementation status April 2026: Digital Omnibus trilogue underway", 21 avril 2026 : https://leosphere.net/eu-ai-act-implementation-status-april-2026-digital-omnibus-trilogue-underway/ - OneTrust, "How the EU Digital Omnibus Reshapes AI Act Timelines and Governance In 2026" : https://www.onetrust.com/blog/how-the-eu-digital-omnibus-reshapes-ai-act-timelines-and-governance-in-2026/ - European Digital Rights (EDRi), "Open Letter: EU lawmakers must safeguard the AI Act" : https://edri.org/our-work/open-letter-eu-lawmakers-must-safeguard-the-ai-act/ - Parlement européen, "Legislative Train Schedule, Digital Omnibus on AI" : https://www.europarl.europa.eu/legislative-train/package-digital-package/file-digital-omnibus-on-ai --- ### Stratégie nationale d'IA du Canada : Ottawa dévoile six piliers dans son énoncé économique de printemps - URL : https://gouvernance.ai/actualites/canada-strategie-nationale-ia-six-piliers-enonce-economique - Date : 2026-04-28 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : Canada, stratégie nationale IA, Evan Solomon, énoncé économique, gouvernance fédérale - Résumé : Dans son Énoncé économique de printemps 2026, Ottawa esquisse pour la première fois les six piliers de sa future Stratégie nationale d'IA, sans en fixer la date de publication officielle. Le gouvernement fédéral a profité de la publication de l'Énoncé économique de printemps 2026, le 28 avril, pour révéler une partie longtemps attendue de sa future Stratégie nationale d'intelligence artificielle. Sans en livrer le texte complet, Ottawa y présente les six piliers qui structureront sa politique en matière d'IA, après plusieurs reports d'une stratégie initialement promise pour la fin de 2025. Le ministre fédéral de l'IA et de l'Innovation numérique, Evan Solomon, demeure responsable de la livraison du document final, dont la date de publication officielle n'est toujours pas confirmée. ## Une stratégie attendue, repoussée à plusieurs reprises L'élaboration d'une nouvelle stratégie pancanadienne en IA est lancée depuis le printemps 2025, en remplacement de la précédente Stratégie pancanadienne sur l'intelligence artificielle de 2017-2022. Un Groupe de travail sur la stratégie en IA a tenu des consultations publiques durant l'été et l'automne 2025, et un rapport de synthèse a été publié au début de 2026. La stratégie complète était attendue avant la fin de 2025, puis au premier trimestre 2026, sans qu'aucune de ces échéances ne soit respectée. L'inclusion des piliers dans l'Énoncé économique de printemps marque donc un compromis : Ottawa rassure les milieux industriels et académiques sur la direction prise, tout en maintenant sous le coude les détails de mise en œuvre, les enveloppes budgétaires précises et l'agenda de gouvernance. ## Les six piliers annoncés Selon le texte de l'Énoncé économique et les communications ministérielles, la future stratégie s'articulera autour de six grands axes : 1. **Protéger la population canadienne et préserver la démocratie** : volet centré sur la sécurité de l'IA, la lutte contre la désinformation générée par l'IA, la protection des élections et l'encadrement des contenus synthétiques. 2. **Stimuler l'adoption de l'IA pour une prospérité partagée** : programmes ciblés sur les entreprises, en particulier les PME, et soutien à l'intégration de l'IA dans les secteurs traditionnels de l'économie. 3. **Bâtir un fondement souverain canadien en IA** : poursuite des investissements dans la capacité de calcul, l'infrastructure de données et la propriété intellectuelle nationales, en lien avec la Stratégie canadienne de calcul souverain et le programme d'infrastructure de superordinateurs annoncé en avril 2026. 4. **Faire grandir les champions canadiens** : accompagnement des entreprises canadiennes en IA pour qu'elles atteignent une taille mondiale, par des outils de financement, l'approvisionnement public et des mesures fiscales. 5. **Investir dans la recherche et les talents** : maintien des grappes de recherche en IA, attraction et rétention de chercheurs, formation continue et mise à niveau des compétences pour la main d'œuvre canadienne. 6. **Bâtir des partenariats et alliances mondiales de confiance** : coopération bilatérale et multilatérale sur la gouvernance de l'IA, dans la lignée de la déclaration conjointe Canada-Finlande du 14 avril 2026 et des engagements à l'OCDE et au Partenariat mondial sur l'IA. L'articulation entre ces piliers et les organismes existants reste à préciser. Le Centre canadien sur la sécurité de l'IA (ICSIA), créé fin 2024, est appelé à jouer un rôle central sur le premier pilier, tandis que les nouveaux programmes d'infrastructure de calcul s'inscrivent au cœur du troisième. ## Ce que cela signifie pour le Québec Pour le Québec, l'annonce a une portée immédiate à plusieurs égards. Les centres de recherche montréalais, dont Mila, et les grappes industrielles en IA bénéficient directement du cinquième pilier (recherche et talents) et figurent parmi les principaux candidats aux investissements fédéraux en infrastructure souveraine prévus au troisième pilier. Le programme d'infrastructure de superordinateurs publics, dont les appels à candidatures ont été lancés ce printemps, pourrait aussi se traduire par des installations majeures sur le territoire québécois si les critères de sélection privilégient la disponibilité d'énergie propre, ce que l'hydroélectricité québécoise garantit. L'arrimage entre la stratégie fédérale et les initiatives québécoises sera scruté de près. Le Québec dispose déjà d'un cadre propre, fondé sur la Stratégie d'intégration de l'IA dans l'administration publique 2021-2026, sur le Portrait des utilisations de l'IA publié en mars 2026, et sur la Directive d'encadrement de l'IA dans le secteur public dont la conformité totale est exigée d'ici le 5 juin 2026. Plusieurs de ces orientations recoupent le premier pilier fédéral (protection et démocratie) et le deuxième (adoption pour la prospérité), sans qu'il existe pour l'heure de mécanisme formel de coordination. Le risque, pour le Québec, serait d'une superposition des cadres sans harmonisation : un même organisme public ou une même PME pourrait être appelé à se conformer à la fois aux directives québécoises, à la stratégie fédérale, et aux exigences sectorielles des autorités de réglementation comme l'AMF en finance. Une articulation explicite entre Ottawa et Québec sera nécessaire au moment du lancement de la stratégie complète. ## Les zones d'ombre persistantes Plusieurs angles morts subsistent à ce stade. L'Énoncé économique ne précise ni les enveloppes budgétaires associées à chaque pilier, ni le calendrier législatif d'éventuelles modifications de la Loi sur l'intelligence artificielle et les données (LIAD), dont l'avenir reste incertain depuis la dissolution du précédent Parlement. Le document ne se prononce pas non plus sur les obligations de transparence applicables aux modèles de fondation, ni sur la place réservée aux organismes consultatifs comme le Conseil consultatif en matière d'IA. Les prochaines semaines devraient apporter des précisions, notamment lors du dépôt du budget fédéral et des audiences parlementaires sur l'Énoncé économique. Pour la communauté québécoise de la gouvernance de l'IA, c'est sur ces détails, plus que sur l'énoncé des piliers, que se jouera l'évaluation réelle de la stratégie nationale. ## Sources - Feds reveal 6 pillars for long-touted, repeatedly delayed national AI strategy, CBC News : https://www.cbc.ca/news/politics/ai-strategy-pillars-evan-solomon-9.7180418 - AI strategy pillars, new SMB procurement program revealed in Canada's Spring Economic Update, BetaKit : https://betakit.com/canadian-spring-economic-update-2026/ - Spring Economic Update 2026: Key Measures, Government of Canada : https://www.canada.ca/en/department-finance/news/2026/04/spring-economic-update-2026-key-measures.html - Canada launches national initiative to build large-scale AI supercomputing capacity, Government of Canada : https://www.canada.ca/en/innovation-science-economic-development/news/2026/04/canada-launches-national-initiative-to-build-large-scale-ai-supercomputing-capacity.html - Engagements on Canada's next AI Strategy: Summary of inputs, ISED : https://ised-isde.canada.ca/site/ised/en/public-consultations/engagements-canadas-next-ai-strategy-summary-inputs --- ### Ottawa veut automatiser la correspondance du premier ministre par IA : test de gouvernance pour la fonction publique fédérale - URL : https://gouvernance.ai/actualites/bcp-automatisation-ia-correspondance-fonction-publique-federale - Date : 2026-04-27 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : Canada, Bureau du Conseil privé, fonction publique fédérale, IA générative, PSAC, gouvernance IA, automatisation - Résumé : Le Bureau du Conseil privé prévoit d'automatiser par IA le traitement des lettres adressées au premier ministre, avec 64,6 M$ d'économies sur trois ans. Les syndicats fédéraux dénoncent une précipitation qui contraste avec l'approche encadrée du Québec. ## Un plan ministériel qui change la donne Le plan ministériel 2026-2027 du **Bureau du Conseil privé** (BCP), déposé à la mi-avril 2026 et largement commenté dans les médias canadiens à partir du 22 avril, contient une phrase qui n'est pas passée inaperçue. L'organisme central qui appuie le premier ministre et le Cabinet annonce qu'il entend « aplatir la structure de direction, automatiser la correspondance adressée au premier ministre par le public, moderniser les nominations par décret et les systèmes de documents du Cabinet, et numériser les services de messagerie de routine ». Traduction concrète : une partie du courrier qui arrive sur le bureau de Mark Carney pourrait bientôt être triée, classée, voire pré-rédigée par des systèmes d'intelligence artificielle. Le BCP vise une réduction de ses dépenses de **64,6 millions de dollars sur trois ans**. Le volume en cause donne la mesure du chantier. Depuis 2016, le BCP reçoit chaque année entre **1,5 et 3,3 millions de courriels et lettres** adressés au premier ministre, qu'ils proviennent de citoyens, d'organisations ou d'élus. Aucune intervention humaine ne pourra être maintenue à pleine échelle si l'on souhaite réellement économiser. ## Une pièce d'un plan plus large : 40 000 postes fédéraux L'annonce du BCP ne tombe pas du ciel. Elle s'inscrit dans le cadre du premier budget fédéral de Mark Carney, qui prévoit l'élimination d'environ **40 000 postes** dans la fonction publique fédérale, en s'appuyant en partie sur l'intelligence artificielle pour absorber la charge de travail. Le BCP reste prudent dans sa communication officielle, soulignant qu'« il n'existe aucun projet immédiat de mise en œuvre de l'IA ou d'une automatisation de ce type pour la révision ou la rédaction de la correspondance ». Reste que le plan ministériel l'inscrit noir sur blanc dans la trajectoire financière de l'organisation. ## Les syndicats montent au front L'**Alliance de la fonction publique du Canada** (PSAC) a réagi sans détour. Alex Silas, vice-président exécutif national, soutient une position de principe : « Lorsque les Canadiennes et les Canadiens écrivent au cabinet du premier ministre, ou lorsque le cabinet émet une communication, cette correspondance doit être préparée par un être humain, pas par une IA. » Selon lui, « le gouvernement Carney se précipite vers l'IA sans considérer les impacts négatifs sur les emplois, les services aux Canadiens, l'environnement et la protection de l'information ». Sharon DeSousa, présidente nationale de la PSAC, ajoute une dimension qui touche directement les usagers : « Quand quelqu'un traverse une crise dans sa vie, il se tourne vers le gouvernement pour obtenir des réponses, et il veut parler à un être humain. » Un sondage commandé par le syndicat indique d'ailleurs qu'une majorité de Canadiens s'opposent aux coupes profondes dans la fonction publique fédérale et ne souhaitent pas que des agents conversationnels d'IA livrent les prestations gouvernementales. ## Trois questions de gouvernance que cette annonce soulève Au-delà du débat sur l'emploi, le projet du BCP pose des problèmes concrets de gouvernance de l'IA dans le secteur public. **Premièrement, la transparence**. Si une partie de la correspondance est désormais classée ou rédigée par des systèmes automatisés, quelle information sera communiquée au citoyen qui écrit au premier ministre ? Quelles traces d'audit seront conservées ? La Politique sur l'utilisation responsable de l'intelligence artificielle du Conseil du Trésor et la Directive sur la prise de décisions automatisée fixent déjà des balises pour les décisions administratives, mais leur application au courrier politique reste à clarifier. **Deuxièmement, la responsabilité**. Le ministre Evan Solomon avait promis un nouveau projet de loi fédéral sur l'IA avant la fin du premier trimestre 2026. Ce texte n'est toujours pas déposé. Le déploiement opérationnel d'IA dans les institutions centrales se fera donc, dans l'immédiat, sans cadre législatif spécifique. **Troisièmement, le précédent**. Si le BCP, organisme le plus visible du gouvernement fédéral, automatise la correspondance du premier ministre, d'autres ministères suivront. La Commission de la fonction publique du Canada inscrit déjà l'automatisation et l'IA générative comme leviers d'efficacité dans son propre plan ministériel 2026-2027. ## Un contraste frappant avec le calendrier québécois Côté québécois, l'approche est plus séquencée. La directive ministérielle sur l'IA générative dans le secteur public, publiée en décembre 2025, exige que tous les organismes publics se conforment d'ici le **5 juin 2026** à des obligations précises : structure de gouvernance, processus d'évaluation des risques, documentation, formation. Le ministère de la Cybersécurité et du Numérique a publié en mars 2026 un Portrait des utilisations de l'IA dans l'administration publique recensant les initiatives en cours, dont le nombre a augmenté de plus de 50 % entre 2024 et 2025. Ottawa avance donc en parallèle, mais sans le même cadrage normatif. Pour les juristes et les experts en gouvernance, la coexistence de ces deux trajectoires (fédérale rapide, provinciale prescrite) sera un terrain d'observation privilégié dans les prochains mois. La question n'est plus de savoir *si* l'IA s'installera dans la fonction publique canadienne, mais à quelles conditions de transparence, de protection des renseignements personnels et de redevabilité démocratique. ## Sources - *Is it Mark Carney or is it AI?*, CBC News, 22 avril 2026 : [cbc.ca](https://www.cbc.ca/news/politics/carney-artificial-intelligence-correspondence-9.7172335) - *Public Service Unions Question Carney Government's Plans for AI and Hiring Caps on Federal Workforce*, PressProgress : [pressprogress.ca](https://pressprogress.ca/public-service-unions-question-carney-governments-plans-for-ai-and-hiring-caps-on-federal-workforce/) - *PSAC raises alarm as Carney government announces sweeping public service cuts*, Alliance de la fonction publique du Canada : [psacunion.ca](https://psacunion.ca/psac-raises-alarm-carney-government-announces) - *2026-2027 Departmental Plan, Privy Council Office*, gouvernement du Canada : [canada.ca](https://www.canada.ca/en/privy-council/corporate/transparency/planned-spending/departmental-plans/2026-2027.html) - *Plan ministériel 2026-2027, Commission de la fonction publique du Canada* : [canada.ca](https://www.canada.ca/fr/commission-fonction-publique/services/publications/plan-ministeriel-2026-2027.html) - *Portrait des utilisations de l'intelligence artificielle dans l'administration publique*, gouvernement du Québec, mars 2026 : [quebec.ca](https://www.quebec.ca/nouvelles/actualites/details/lintelligence-artificielle-au-coeur-de-la-modernisation-de-letat-le-gouvernement-du-quebec-publie-le-portrait-des-utilisations-de-lintelligence-artificielle-dans-ladministration-publique-68819) --- ### Superordinateur public d'IA : Ottawa ouvre l'appel à 890 M$, quelle place pour le Québec ? - URL : https://gouvernance.ai/actualites/superordinateur-public-ia-canada-scip-quebec - Date : 2026-04-23 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : souveraineté IA, calcul, SCIP, Canada, Québec, Mila, Evan Solomon, infrastructure - Résumé : Le gouvernement fédéral a officialisé cette semaine le programme d'infrastructure de calcul souverain pour l'IA. Un appel à propositions ouvert jusqu'au 1er juin 2026 qui redéfinit les équilibres entre provinces. ## Une annonce qui n'est plus théorique Le 22 avril 2026, le ministre de l'Intelligence artificielle et de l'Innovation numérique, Evan Solomon, a confirmé publiquement ce que plusieurs feuilles de route fédérales préparaient depuis le budget 2024 : le Canada se dote de son premier superordinateur public dédié à l'intelligence artificielle. L'annonce, diffusée en vidéo, arrime explicitement la stratégie d'IA à un objectif de souveraineté numérique. L'infrastructure de calcul, jusqu'ici louée en bonne partie à l'étranger ou à des fournisseurs américains, doit désormais être hébergée, gouvernée et opérée au Canada. Le véhicule de cette ambition porte un nom technique mais lourd de conséquences : le **programme d'infrastructure de calcul souverain pour l'IA (SCIP)**. Administré par Innovation, Sciences et Développement économique Canada (ISDE), il vient d'ouvrir officiellement son appel à propositions, avec une date limite fixée au **1ᵉʳ juin 2026**. ## Ce que prévoit le programme SCIP Le programme mobilise environ **890 millions de dollars** sur **sept exercices financiers**, à compter de 2026-2027. Ces fonds sont dirigés vers la couche dite « de construction » (Infrastructure Build Layer), c'est-à-dire la conception, la construction et l'exploitation continue du système de calcul lui-même. Plusieurs exigences structurent l'appel : - **Localisation canadienne** : les installations doivent se trouver en territoire canadien. - **Gouvernance canadienne** : la propriété, le contrôle opérationnel et les décisions stratégiques doivent demeurer au Canada. - **Résidence des données** : les données des chercheurs et des entreprises hébergées restent assujetties au droit canadien. - **Accès public et ouvert** : l'infrastructure sera mise à disposition des chercheurs publics et des entreprises innovantes, et non réservée à un acteur privé unique. Cette combinaison (lieu, gouvernance, résidence) traduit une vision précise de la souveraineté : il ne suffit pas d'avoir des GPU sur le sol national, encore faut-il que les décisions sur leur allocation, leur configuration et leur sécurité échappent aux injonctions extraterritoriales. ## Le Québec en position favorable, mais concurrencé Pour un lecteur québécois, deux questions se posent immédiatement : notre écosystème est-il bien placé pour capter une part de cet investissement, et qui sont les compétiteurs ? Sur le papier, le Québec réunit plusieurs atouts : une hydroélectricité abondante et décarbonée, un climat qui réduit les coûts de refroidissement, un pôle académique concentré autour de Mila, de l'Université de Montréal, de l'Université Laval et de l'École de technologie supérieure, ainsi qu'un réseau d'entreprises en IA et en science des données parmi les plus denses au pays. L'Université Laval a d'ailleurs conclu, en partenariat avec Mila et le Vector Institute, des contrats visant à acheter, héberger et exploiter un cluster de calcul optimisé pour la recherche de pointe. Mais l'appel SCIP n'est pas une enveloppe réservée. C'est une mise en concurrence nationale, et les premiers signaux indiquent que l'Ouest et l'Ontario se sont organisés rapidement. L'**Université Queen's** (à Kingston) et l'**Université Simon Fraser** (en Colombie-Britannique) ont ainsi signé un protocole d'entente pour candidater conjointement, avec l'appui de Bell pour la construction d'une installation de supercalcul à Kingston. Cette alliance interprovinciale, avec un partenaire télécom de premier plan, illustre le type de consortium que le programme semble encourager. La question pour le Québec n'est donc pas de savoir s'il *peut* soumissionner, mais s'il saura présenter une candidature unifiée (universités, Hydro-Québec, opérateurs de centres de données, gouvernement provincial) plutôt que des propositions fragmentées. ## Gouvernance : au-delà du béton et des GPU Le programme SCIP touche à un angle mort du débat public sur l'IA. On parle beaucoup de règles, d'éthique, d'explicabilité des modèles, mais relativement peu des infrastructures matérielles qui déterminent qui peut entraîner des modèles de grande taille, dans quelles conditions et avec quelle empreinte énergétique. Or, trois enjeux de gouvernance méritent une attention particulière : 1. **L'accès équitable.** Un superordinateur public n'a de valeur que si ses modalités d'accès permettent aux chercheurs universitaires, aux organismes publics, aux PME innovantes et, pourquoi pas, aux équipes autochtones de candidater à des créneaux de calcul selon des critères transparents. 2. **La consommation énergétique.** Les centres de calcul IA consomment des quantités d'électricité considérables. L'hypothèse québécoise, alimentée par l'hydroélectricité, est attrayante, mais il faudra articuler ces demandes avec les priorités résidentielles et industrielles établies par Hydro-Québec, qui a déjà revu ses tarifs pour les grands consommateurs. 3. **La sécurité et la résilience.** L'infrastructure deviendra un actif critique, potentiellement cible d'attaques ou de pressions géopolitiques. La gouvernance opérationnelle (qui contrôle les clés, qui supervise les accès privilégiés, qui répond en cas d'incident) sera aussi importante que le cadre juridique. ## Un jalon, pas une destination Le SCIP n'est qu'une pièce d'un dispositif plus vaste, qui inclut aussi la stratégie canadienne de calcul souverain dévoilée en 2024, les 925,6 M$ annoncés sur cinq ans pour le soutien à l'infrastructure, et divers accords bilatéraux signés depuis un an, notamment avec l'Allemagne et plus récemment la Finlande dans le cadre d'une alliance pour la technologie souveraine. Pour les responsables de gouvernance de l'IA au Québec, trois actions concrètes se dessinent à court terme : - Suivre attentivement les résultats de l'appel SCIP après le 1ᵉʳ juin 2026. - Cartographier les charges de calcul que leurs équipes ou partenaires universitaires pourraient migrer vers une infrastructure publique canadienne, par opposition aux services d'hyperscalers américains. - Intégrer dès maintenant, dans leurs évaluations de risque, la variable « résidence des données » et « localisation du calcul », qui prendra une importance croissante au fil de la mise en service du superordinateur. La souveraineté numérique, longtemps vécue comme un slogan, se matérialise cette fois en câbles, en processeurs et en règles d'accès. Le Québec a les ressources et les compétences pour en tirer parti. Reste à transformer ces atouts en candidature. --- **Sources** - *Mon Carnet*, 22 avril 2026 : [Le ministre Evan Solomon promet un superordinateur public pour renforcer la souveraineté en IA du Canada](https://moncarnet.com/2026/04/22/le-ministre-evan-solomon-promet-un-superordinateur-public-pour-renforcer-la-souverainete-en-ia-du-canada/) - Innovation, Sciences et Développement économique Canada : [AI Sovereign Compute Infrastructure Program](https://ised-isde.canada.ca/site/ised/en/ai-sovereign-compute-infrastructure-program) - Innovation, Sciences et Développement économique Canada : [Canadian Sovereign AI Compute Strategy](https://ised-isde.canada.ca/site/ised/en/canadian-sovereign-ai-compute-strategy) - *Queen's Gazette* : [Queen's and Simon Fraser University partner to strengthen Canada's supercomputing capabilities](https://www.queensu.ca/gazette/stories/queen-s-and-simon-fraser-university-partner-strengthen-canada-s-supercomputing-capabilities) - *Innovation News Network* : [Canadian universities collaborate to build high-performance supercomputing system](https://www.innovationnewsnetwork.com/canadian-universities-collaborate-to-build-high-performance-supercomputing-system/68249/) - *ETIH EdTech News* : [Canada opens applications for $890 million sovereign AI supercomputer](https://www.edtechinnovationhub.com/news/canada-opens-applications-for-890-million-sovereign-ai-supercomputer) --- ### 5 juin 2026 : six semaines pour que les organismes publics québécois se conforment à la directive sur l'IA - URL : https://gouvernance.ai/actualites/deadline-directive-ia-publique-quebec-juin-2026 - Date : 2026-04-23 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : Québec, directive IA, secteur public, conformité, IA générative, gouvernance, juin 2026 - Résumé : La directive ministérielle québécoise sur l'IA générative dans le secteur public entre en vigueur obligatoire dans moins de six semaines. Voici ce que ministères, municipalités et établissements de santé doivent avoir mis en place avant le 5 juin 2026. ## Un compte à rebours que peu d'organismes ont entamé Le 19 décembre 2025, le ministre de la Cybersécurité et du Numérique publiait discrètement deux documents qui allaient transformer les obligations de tous les organismes publics québécois : une indication d'application datée du 5 décembre 2025 et un arrêté ministériel révisé daté du 3 décembre 2025. Ces textes imposent un cadre juridique contraignant à l'ensemble du secteur public québécois pour l'utilisation de l'intelligence artificielle générative. La date limite de conformité totale : le 5 juin 2026. Nous sommes le 23 avril. Il reste donc moins de six semaines. Ce délai, qui pouvait sembler lointain en décembre, est désormais une urgence opérationnelle pour des milliers d'organisations. Ministères, municipalités, établissements de santé, sociétés d'État : aucun organisme assujetti à la Loi sur la gouvernance et la gestion des ressources informationnelles (LGGRI) n'y échappe. Et contrairement à de nombreuses politiques passées, il ne s'agit pas de recommandations : la non-conformité est illégale. ## Ce que la directive exige concrètement La directive couvre plusieurs obligations opérationnelles que les organismes doivent avoir documentées, implantées et approuvées avant la date limite. **Une structure de gouvernance formalisée** L'article 3 de l'arrêté impose la mise en place d'une structure de gouvernance comprenant des comités, des processus et de la documentation écrite. Cette structure doit définir les rôles et responsabilités liés à l'IA, identifier les personnes habilitées à autoriser l'utilisation de systèmes d'IA générative, et s'arrimer à la gouvernance numérique gouvernementale existante. **Aucune donnée confidentielle dans les outils d'IA publics** L'article 19 est sans ambiguïté : aucune donnée confidentielle ne peut transiter par des systèmes d'IA générative de type ChatGPT, Microsoft Copilot ou équivalents. Cette restriction s'applique aux données de santé, aux renseignements personnels, aux informations juridiques protégées et à toute donnée classifiée par l'organisme. Les établissements doivent donc avoir réalisé une classification rigoureuse de leurs actifs informationnels avant de déployer tout outil. **Formation obligatoire avant toute utilisation** L'article 11 interdit expressément l'utilisation d'un système d'IA générative par un employé qui n'a pas suivi de formation préalable sur les risques liés à ces outils. Les organismes doivent donc avoir déployé des programmes de formation documentés et vérifiés pour l'ensemble du personnel concerné. **Évaluation des facteurs relatifs à la vie privée pour chaque projet** L'article 4 impose une évaluation des facteurs relatifs à la vie privée (EFVP) pour tout projet d'IA dès sa conception, et cette évaluation doit être actualisée tout au long des phases d'expérimentation, de développement et de déploiement. Cette obligation s'aligne avec les exigences de la Loi 25, mais va plus loin en imposant une révision continue et documentée. **Un processus de gestion des risques en six étapes** La directive prescrit un cycle de gestion des risques comprenant : l'identification de tous les risques organisationnels, leur analyse, leur évaluation et priorisation, la détermination de mesures d'atténuation avec responsables et échéanciers, l'approbation formelle des résultats, et un suivi périodique. Ce n'est pas un exercice ponctuel, mais un processus continu à documenter. ## L'ampleur du défi pour les organismes Le Laboratoire de cyberjustice de l'Université de Montréal a qualifié ce cadre de "gouvernance structurée et responsable", mais a aussi souligné la charge de travail significative qu'il représente. En février 2026, son analyse notait que beaucoup d'établissements publics n'avaient pas encore entamé les travaux de mise en conformité, notamment dans les réseaux de la santé et de l'éducation. Le portrait des utilisations de l'IA dans l'administration publique, publié en mars 2026 par le ministère, révèle que le nombre d'initiatives d'IA dans le secteur public québécois a augmenté de plus de 50 % entre 2024 et 2025. Cette accélération rend la conformité d'autant plus urgente : plus un organisme déploie d'outils, plus il doit documenter, évaluer et gouverner. Les municipalités font face à un défi particulier. Contrairement aux grands ministères qui disposent de directions informatiques étoffées, de nombreuses municipalités québécoises n'ont pas de responsable de la protection des renseignements personnels dédié ni de ressources spécialisées en gouvernance de l'IA. Le guide publié par la firme Activis pour les municipalités québécoises souligne que ces organismes devront souvent faire appel à des ressources externes pour répondre aux exigences d'ici juin. ## Trois questions que les dirigeants doivent se poser maintenant À six semaines de l'échéance, voici le diagnostic minimal qu'un dirigeant d'organisme public québécois doit pouvoir répondre : **1. Avons-nous une structure de gouvernance IA approuvée et documentée ?** Si la réponse est non ou en cours, c'est la priorité absolue. Sans gouvernance formalisée, aucune autre exigence ne peut être satisfaite de façon crédible. **2. Nos employés ont-ils tous été formés avant d'utiliser des outils d'IA générative ?** L'absence de formation documentée constitue une violation directe de l'article 11. Un registre de formation par employé est la preuve attendue. **3. Avons-nous réalisé des EFVP pour chaque système d'IA en opération ou en développement ?** Si des outils sont déjà déployés sans EFVP, l'organisme est en violation actuelle, pas seulement future. ## Une directive qui s'inscrit dans un mouvement plus large La directive québécoise ne sort pas du néant. Elle s'inscrit dans un mouvement de réglementation sectorielle de l'IA qui gagne en précision dans plusieurs administrations. En décembre 2025, le Québec devenait l'une des premières administrations au monde à imposer par voie d'arrêté ministériel des obligations opérationnelles spécifiques à l'IA générative pour l'ensemble de son secteur public. À l'échelle fédérale, la situation est différente : faute d'une loi sur l'IA depuis l'échec du projet de loi C-27 en janvier 2025, le Canada s'appuie encore sur des orientations volontaires et les exigences de la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) pour le secteur privé. Le ministre Evan Solomon a indiqué qu'une nouvelle approche législative sera proposée en 2026, mais rien n'est encore tabled. Le Québec, dans ce contexte, fait figure de précurseur. La contrainte du 5 juin 2026 n'est pas qu'une date administrative : elle représente le premier test grandeur nature de la volonté du gouvernement québécois de faire respecter sa vision d'une utilisation responsable de l'IA dans l'État. --- ## Sources - Gouvernement du Québec, Obligations et encadrement de l'intelligence artificielle : https://www.quebec.ca/gouvernement/services-organisations-publiques/services-transformation-numerique/reussir-sa-transformation-numerique/accompagnement-des-organismes-publics/intelligence-artificielle-dans-ladministration-publique/obligations-et-encadrement-de-lintelligence-artificielle - Gouvernement du Québec, Portrait des utilisations de l'IA dans l'administration publique : https://www.quebec.ca/gouvernement/numerique/intelligence-artificielle-administration-publique/portrait - Laboratoire de cyberjustice, L'IA générative dans le secteur public québécois (24 février 2026) : https://cyberjustice.openum.ca/2026/02/24/lia-generative-dans-le-secteur-public-quebecois-vers-une-gouvernance-structuree-et-responsable/ - Collimateur UQAM, Le Québec réglemente l'IA dans le secteur public : https://collimateur.uqam.ca/collimateur/le-quebec-reglemente-lia-dans-le-secteur-public/ - Activis, Arrêté IA Québec 2025 : Guide pour les municipalités : https://activis.ca/intelligence-artificielle-municipalites-quebec-guide/ - École branchée, Gouvernance de l'IA : Québec publie de nouvelles lignes directrices : https://ecolebranchee.com/gouvernance-ia-quebec-nouvelles-lignes-directrices/ --- ### Affaire Mythos : quand un modèle frontière révèle les angles morts de la souveraineté régulatoire canadienne - URL : https://gouvernance.ai/actualites/anthropic-mythos-souverainete-regulatoire-canada - Date : 2026-04-23 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : Anthropic, Mythos, souveraineté IA, ICSIA, CAISI, Canada, Québec, gouvernance IA, cybersécurité - Résumé : Anthropic a restreint son modèle Mythos à un cercle fermé d'entreprises américaines, a été pénétrée dès le premier jour, et le Canadian AI Safety Institute n'y a pas accès. Le Québec et le Canada découvrent les limites d'une gouvernance qui n'a droit qu'au regard extérieur. ## Un modèle que personne, au Canada, n'a le droit d'examiner Le 7 avril 2026, Anthropic a annoncé **Claude Mythos Preview**, un modèle frontière si performant en cybersécurité offensive que l'entreprise a jugé imprudent d'en autoriser la diffusion publique. Selon la firme californienne, Mythos peut identifier de manière autonome des vulnérabilités inédites, générer des exploits fonctionnels et enchaîner des opérations cyber complexes avec un minimum d'intervention humaine. Plutôt que de publier le modèle, Anthropic l'a versé à une initiative à accès contrôlé baptisée **Project Glasswing**, réunissant une quarantaine d'entreprises triées sur le volet, toutes établies aux États-Unis : Amazon, Microsoft, Apple, Google, JPMorgan Chase, CrowdStrike, Palo Alto Networks. À ce jour, aucune organisation canadienne n'y figure. Ni le **Canadian AI Safety Institute (CAISI)**, connu en français sous l'acronyme **ICSIA**, ni les grandes banques canadiennes, ni le Centre canadien pour la cybersécurité ne font partie du dispositif. La CISA américaine elle-même a reconnu publiquement ne pas y avoir accès. ## Trois semaines de bascule La séquence des faits résume le dilemme que Mythos pose aux régulateurs. - **7 avril** : Anthropic dévoile le modèle et annonce la non-publication. Project Glasswing est présenté comme un dispositif de diffusion responsable. - **15 avril** : Des représentants de la Commission européenne rencontrent Anthropic, sans obtenir d'accès direct. - **21 avril** : *Axios* révèle que la CISA américaine n'a pas accès au modèle, contrairement à la NSA. - **22 avril** : *Euronews* et *CBS News* rapportent qu'un groupe privé lié à un serveur Discord a obtenu un accès non autorisé, en combinant des identifiants légitimes détenus par un sous-traitant et la reconstitution des conventions de nommage d'Anthropic. L'entreprise confirme enquêter, tout en soulignant que la brèche proviendrait d'un environnement tiers. Quinze jours après la présentation du dispositif, le modèle jugé trop dangereux pour le grand public circule hors du périmètre prévu. Pour les régulateurs, le message est double : l'auto-régulation par un fournisseur privé, aussi soignée soit-elle, ne suffit pas; et les gouvernements hors boucle apprennent l'incident par la presse. ## Ottawa : une lecture « responsable », une critique interne Interrogé par *The Globe and Mail*, le ministre canadien de l'Intelligence artificielle et de l'Innovation numérique, **Evan Solomon**, a qualifié l'approche d'Anthropic de « responsable ». La décision de ne pas diffuser publiquement le modèle illustrerait, selon lui, une prise de conscience des fournisseurs quant aux risques des capacités frontières. La lecture est nettement plus critique du côté du Canadian AI Safety Institute. **Nicolas Papernot**, co-directeur du programme de recherche de l'ICSIA et chaire du CIFAR, a résumé la position scientifique de l'institut en une formule lapidaire : « *Le statu quo où les entreprises privées décident quels modèles sont publiés est nuisible pour la société.* » L'argument n'est pas idéologique : il rappelle que toute décision de non-publication confiée exclusivement à un acteur privé soustrait à la délibération publique et scientifique une question qui engage la sécurité collective. ## Les régulateurs financiers sortent du bois L'onde de choc a rapidement atteint le secteur financier, dont les systèmes critiques figurent parmi les cibles les plus exposées. Le gouverneur de la Banque du Canada, **Tiff Macklem**, a indiqué qu'un comité rassemblant le Bureau du surintendant des institutions financières (BSIF), le ministère des Finances, le Centre canadien pour la cybersécurité et des experts des grandes banques s'est déjà réuni à deux reprises pour évaluer les implications systémiques du modèle. Le ministre des Finances **François-Philippe Champagne** a qualifié Mythos de « test case » pour la capacité des gouvernements à réagir aux nouvelles technologies. À Toronto, le patron de la Commission des valeurs mobilières de l'Ontario (OSC), **Grant Vingoe**, est allé plus loin à une conférence Bloomberg : une technologie aussi transformatrice que les modèles frontières pourrait exiger « un environnement réglementaire sur mesure », et non plus l'approche « neutre du point de vue technologique » appliquée jusqu'ici. Au Québec, cette dynamique rencontre un écosystème déjà mobilisé. L'Autorité des marchés financiers a publié le 7 avril sa ligne directrice finale sur l'IA, applicable le 1er mai 2027. Les dirigeants de conformité des banques et caisses établies au Québec doivent désormais composer avec deux réalités : un cadre régulatoire local qui se précise, et des modèles dont les caractéristiques essentielles peuvent échapper à toute inspection extérieure. ## Peut-on gouverner ce qu'on n'a pas le droit d'examiner ? L'affaire Mythos dépasse la cybersécurité et rejoint les travaux du Conseil de l'innovation du Québec et de l'OBVIA sur le cadre de gouvernance de l'IA. Lorsqu'un acteur privé américain décide unilatéralement des conditions d'accès à un modèle stratégique, les leviers traditionnels des régulateurs canadiens et québécois vacillent. Les évaluations techniques indépendantes, la certification par des tiers, la vérification des obligations de Loi 25 sur les décisions automatisées : toutes ces pratiques supposent un accès au système. Sans cet accès, la gouvernance se réduit à une lecture à distance des fiches techniques fournies par le fournisseur. L'Union européenne dispose, via l'AI Act et son code de bonnes pratiques pour les modèles à usage général, de leviers juridiques pour réclamer documentation et évaluation des modèles à risque systémique (article 55). Le pouvoir d'enquête de la Commission entrera pleinement en vigueur le 2 août 2026. Le Royaume-Uni, de son côté, a obtenu un accès direct par l'AI Security Institute, qui a publié sa propre évaluation des capacités cyber de Mythos. Le Canada ne dispose ni de l'un ni de l'autre. L'ICSIA, créé fin 2024 avec 50 millions de dollars de financement sur cinq ans, reste tributaire d'accès consentis au cas par cas. La future loi canadienne sur l'IA, dont le dépôt a été repoussé par le ministre Solomon au-delà de son échéance du premier trimestre 2026, pourrait combler ce vide : c'est même, pour plusieurs observateurs, l'un de ses enjeux centraux. ## Ce que l'épisode change pour les organisations québécoises Pour les équipes de conformité au Québec, trois constats émergent. La diligence contractuelle envers les fournisseurs d'IA générative devra intégrer des clauses plus explicites sur l'accès aux évaluations de sécurité et les procédures de notification en cas d'incident chez un sous-traitant. Les obligations de Loi 25 sur la prise de décision automatisée (article 12.1) supposent la capacité de documenter la logique d'une décision : un modèle dont les caractéristiques techniques restent inaccessibles complique sérieusement cet exercice. La souveraineté numérique, telle que définie dans l'Énoncé de politique adopté par Québec en février, ne se joue pas uniquement sur l'hébergement : elle se joue aussi sur la capacité des institutions publiques à examiner les systèmes employés par l'administration et les entreprises réglementées. ## À suivre Le 2 août 2026 marquera l'entrée en vigueur des pouvoirs d'enquête de la Commission européenne sur les fournisseurs de modèles à usage général. À une date encore indéfinie, le ministre Solomon devra déposer son projet de loi canadien sur l'IA : c'est dans ce texte que se mesurera si l'affaire Mythos aura servi de déclencheur pour un véritable pouvoir d'examen des modèles frontières, ou si le Canada se résignera à une gouvernance de témoin. --- **Sources** - Joseph Menn, *The Washington Post / Globe and Mail*, 22 avril 2026 : [AI model sparks rush from industry, government to batten down defence hatches](https://www.theglobeandmail.com/business/economy/article-anthropic-mythos-ai-defence/) - *The Globe and Mail*, 16 avril 2026 : [Artificial Intelligence Minister says Anthropic taking 'responsible' approach with Mythos](https://www.theglobeandmail.com/business/article-ai-minister-says-anthropic-taking-responsible-approach-with-mythos/) - *CBC News*, 14 avril 2026 : [Anthropic's latest AI model is sparking fears from cybersecurity experts and the banking sector](https://www.cbc.ca/news/business/mythos-anthropic-ai-explainer-9.7171597) - Sam Sabin, *Axios*, 21 avril 2026 : [CISA doesn't have access to Anthropic's Mythos](https://www.axios.com/2026/04/21/cisa-anthropic-mythos-ai-security) - *Euronews*, 22 avril 2026 : [Hackers breach Anthropic's 'too dangerous to release' Mythos AI model](https://www.euronews.com/next/2026/04/22/hackers-breach-anthropics-too-dangerous-to-release-mythos-ai-model-report) - *Reuters / Yahoo Finance*, 18 avril 2026 : [New regulatory model may be needed to address AI threats like those posed by Mythos, OSC's Vingoe says](https://ca.finance.yahoo.com/news/anthropics-mythos-ai-may-regulatory-211746714.html) - AI Security Institute (UK), avril 2026 : [Our evaluation of Claude Mythos Preview's cyber capabilities](https://www.aisi.gov.uk/blog/our-evaluation-of-claude-mythos-previews-cyber-capabilities) - Anthropic, 7 avril 2026 : [Claude Mythos Preview](https://red.anthropic.com/2026/mythos-preview/) --- ### L'AMF pose ses règles sur l'IA : ce que la ligne directrice du 7 avril change pour la finance québécoise - URL : https://gouvernance.ai/actualites/amf-ligne-directrice-ia-institutions-financieres-quebec - Date : 2026-04-23 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : AMF, IA, institutions financières, gouvernance, Québec, assureurs, Loi 25 - Résumé : En publiant sa ligne directrice finale sur l'usage de l'intelligence artificielle, l'Autorité des marchés financiers devance le législateur fédéral et impose un cadre de gouvernance aux banques, assureurs et caisses établis au Québec. ## Un régulateur québécois qui n'attend pas Ottawa Le 7 avril 2026, l'Autorité des marchés financiers (AMF) a publié la version finale de sa *Ligne directrice sur l'utilisation de l'intelligence artificielle*, au terme d'une consultation publique tenue durant l'été et l'automne 2025. Le texte confirme une tendance que plusieurs observateurs avaient anticipée : plutôt que d'attendre une éventuelle reprise du projet de loi fédéral sur l'IA (l'ancienne LIAD, intégrée au projet C-27 désormais mort au feuilleton), le régulateur québécois du secteur financier fixe lui-même les attentes qui s'appliqueront à la prochaine génération de systèmes algorithmiques dans les banques, les assureurs et les caisses. La ligne directrice entrera en vigueur le 1ᵉʳ mai 2027. L'intervalle d'un an est volontaire : il laisse aux institutions le temps d'ajuster leurs politiques internes, de structurer leurs inventaires d'usages et de former leurs instances de gouvernance. Pour un dirigeant de conformité au Québec, cette échéance est désormais la plus proche, et la plus contraignante, du paysage réglementaire nord-américain en matière d'IA financière. ## Qui est visé, et par quoi La ligne directrice couvre les assureurs autorisés, les coopératives de services financiers, les sociétés de fiducie autorisées et les institutions de dépôt autorisées. Autrement dit, presque toute l'ossature du secteur financier québécois, du grand assureur national au Mouvement Desjardins, en passant par les succursales québécoises de banques à charte. Trois grandes familles d'exigences structurent le texte. Premièrement, une **exigence d'imputabilité**. L'AMF attend qu'un membre de la haute direction soit désigné comme responsable, au sens formel du terme, de l'ensemble des systèmes d'IA de l'institution. Ce n'est pas un simple titre décoratif : cette personne doit pouvoir attester que les politiques existent, que les processus sont suivis et que les écarts sont remontés jusqu'au conseil d'administration. Le conseil, de son côté, doit s'assurer que sa compétence collective est suffisante pour comprendre les risques, en particulier lorsque l'IA intervient dans des activités jugées critiques. Deuxièmement, une **exigence d'inventaire et de classement des risques**. Chaque institution doit tenir un registre centralisé de ses systèmes d'IA, attribuer à chacun une cote de risque, et ajuster en conséquence l'intensité des activités d'approbation, de surveillance et de validation. La logique est proche de celle du règlement européen sur l'IA, mais calibrée au cycle de vie des produits financiers et au rapport avec la clientèle. Troisièmement, une **exigence d'explicabilité envers la clientèle**. Lorsqu'un système d'IA interagit avec un client ou prend part à une décision qui l'affecte (tarification, souscription, détection de fraude, autorisation de crédit), l'institution doit pouvoir expliquer, de façon claire et simple, les facteurs qui ont conduit au résultat. Cette obligation s'articule avec celles déjà prévues par la Loi 25, qui exige un droit à l'information et un recours humain en cas de décision automatisée. ## Prévention des biais et traitement équitable La ligne directrice insiste particulièrement sur la prévention des biais, la non-discrimination et le traitement équitable des clients. Les institutions devront documenter la provenance des données d'entraînement, évaluer les risques de discrimination (directe ou indirecte), encadrer le risque d'hallucination des modèles génératifs et tenir compte des atteintes potentielles à la propriété intellectuelle. Le texte s'appuie sur deux référentiels que les équipes de conformité connaissent déjà : la *Recommandation de l'OCDE sur l'intelligence artificielle* et le *Règlement européen sur l'IA*. Ce choix n'est pas anodin. Il permet à une filiale québécoise d'un grand groupe européen de réutiliser une partie de la documentation produite pour Bruxelles, et il signale aux acteurs mondiaux que l'AMF n'entend pas réinventer la roue, mais aligner son cadre sur les standards internationaux. ## Une fenêtre qui se referme rapidement Avec une entrée en vigueur au 1ᵉʳ mai 2027, le chantier est serré. Les institutions doivent rapidement clarifier quatre éléments : - **La cartographie** des systèmes d'IA déjà en production, souvent bien plus étendue que ce que l'on croit lorsque l'on y inclut les modèles de *scoring*, les outils de détection de fraude et les assistants internes fondés sur l'IA générative. - **La gouvernance** interne : qui siège au comité IA, qui arbitre les conflits entre équipes métiers et équipes risque, et comment le conseil d'administration reçoit l'information. - **Les processus d'acquisition** de solutions d'IA auprès de fournisseurs tiers, y compris les hyperscalers américains, sachant que la question de la résidence des données devient un sujet de supervision. - **La formation** des administrateurs et des cadres, afin que la « compétence collective » exigée par l'AMF soit démontrable. Pour les praticiens, l'exercice n'est pas seulement défensif. Un inventaire rigoureux, assorti d'une cote de risque, est aussi un outil stratégique pour allouer les investissements et écarter les projets dont la valeur métier ne justifie pas la complexité de gouvernance. ## Une avance québécoise, mais un espace à tenir En publiant cette ligne directrice, l'AMF se positionne comme l'un des régulateurs financiers les plus explicites en Amérique du Nord sur la question de l'IA, aux côtés du Bureau du surintendant des institutions financières (BSIF) dont la ligne directrice B-13 sur les risques technologiques joue un rôle comparable à l'échelon fédéral. Les deux textes sont globalement cohérents, mais ne se superposent pas parfaitement, ce qui oblige les institutions à charte fédérale opérant au Québec à maintenir une double lecture. Pour la gouvernance publique québécoise, le signal est double. D'un côté, le secteur financier, historiquement bien doté en capacités de conformité, absorbera sans doute cette ligne directrice plus facilement que d'autres secteurs (éducation, santé, municipalités) où les mêmes questions se posent sans encadrement équivalent. De l'autre, cette avance du régulateur financier pourrait servir de laboratoire : plusieurs des concepts poussés par l'AMF (inventaire d'usages, cote de risque, imputabilité de haut niveau, explicabilité client) sont des candidats naturels à une généralisation, que ce soit par voie de directive gouvernementale ou de future loi provinciale sur l'IA. La ligne directrice est donc plus qu'un texte sectoriel. Elle donne un avant-goût concret de ce à quoi pourrait ressembler une gouvernance de l'IA « à la québécoise » : prudente, fondée sur le risque, arrimée aux standards internationaux et articulée à la protection des renseignements personnels déjà prévue par la Loi 25. --- **Sources** - *La Presse*, 16 avril 2026 : [Intelligence artificielle : l'AMF détaille une bonne utilisation par les banques et les assureurs](https://www.lapresse.ca/affaires/techno/2026-04-16/intelligence-artificielle/l-amf-detaille-une-bonne-utilisation-par-les-banques-et-les-assureurs.php) - *Blake, Cassels & Graydon LLP* : [L'AMF publie sa ligne directrice sur l'utilisation de l'intelligence artificielle : ce que les institutions financières doivent retenir](https://www.blakes.com/fr-ca/perspectives/l-amf-publie-sa-ligne-directrice-sur-l-utilisation-de-l-intelligence-artificielle-ce-que-les-insti/) - *Le Devoir* : [L'AMF et la gouvernance de l'IA, ou quand les institutions devancent la loi](https://www.ledevoir.com/opinion/idees/971351/amf-gouvernance-ia-ou-quand-institutions-devancent-loi) - Autorité des marchés financiers : [Ligne directrice sur l'utilisation de l'intelligence artificielle](https://lautorite.qc.ca/professionnels/assureurs/lignes-directrices/utilisation-des-modeles/ld-utilisation-de-lintelligence-artificielle) - *Norton Rose Fulbright* : [Encadrement de l'usage de l'IA dans les services financiers : alignement entre la ligne directrice de l'AMF et la ligne directrice B-13 du BSIF](https://www.nortonrosefulbright.com/en/knowledge/publications/89abf6a1/encadrement-de-lusage-de-lia-dans-les-services-financiers) --- ### Dossier santé numérique : le 9 mai, un test grandeur nature pour la souveraineté numérique du Québec - URL : https://gouvernance.ai/actualites/dsn-epic-souverainete-donnees-sante-quebec - Date : 2026-04-22 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : DSN, Epic Systems, souveraineté numérique, Santé Québec, Gilles Bélanger, CLOUD Act, données de santé - Résumé : À dix-sept jours du déploiement du Dossier santé numérique confié à Epic Systems, l'affrontement entre le ministre Bélanger et Santé Québec expose les contradictions de l'Énoncé de politique de souveraineté numérique adopté en février. ## Un déploiement à risque maintenu pour le 9 mai Le 13 avril, la vice-présidente aux technologies de l'information de Santé Québec, **Erika Bially**, a signé sa recommandation formelle de déployer le **Dossier santé numérique (DSN)** le 9 mai 2026 dans deux régions pilotes : le CIUSSS du Nord-de-l'Île-de-Montréal et une partie du CIUSSS de la Mauricie-et-Centre-du-Québec. La signature est intervenue malgré une série d'avertissements internes et politiques rendus publics au cours des deux dernières semaines. Les documents internes révélés par *La Presse* le 17 avril décrivent un centre d'assistance technique insuffisamment préparé, des protocoles de contingence incomplets et une formation clinique hétérogène d'un établissement à l'autre. La présidente de Santé Québec, **Geneviève Biron**, a elle-même admis le 9 avril que des problèmes techniques étaient à prévoir dans les premières semaines, et que le déploiement entraînerait des baisses de capacité de 25 à 50 % dans plusieurs services ainsi que des fermetures de lits. Le 21 avril, la ministre responsable du dossier, **Sonia Bélanger**, a pris la parole pour rappeler que le gouvernement se réserve le droit de stopper les projets pilotes si les conditions ne sont pas réunies. Cette déclaration fait écho à la posture, plus tranchée encore, du ministre de la Cybersécurité et du Numérique, **Gilles Bélanger**, qui avait déclaré quelques jours plus tôt que « nos données de santé ne sont pas du tout en sécurité ». ## L'épreuve de vérité de l'Énoncé de politique de février Le conflit qui oppose Santé Québec au cabinet du numérique ne porte pas uniquement sur la préparation opérationnelle. Il touche au cœur de la stratégie québécoise adoptée deux mois plus tôt. Le 13 février 2026, Gilles Bélanger dévoilait l'**Énoncé de politique de souveraineté numérique et d'approvisionnement en technologies de l'information**, assorti d'une enveloppe de 1,4 milliard de dollars destinée à rapatrier dans le Nuage gouvernemental les charges de travail critiques de l'État. Or, le DSN a été confié à **Epic Systems**, société établie dans le Wisconsin. Les données de santé des Québécoises et Québécois seront hébergées sur une plateforme américaine, donc soumise à la portée extraterritoriale du **CLOUD Act** adopté par le Congrès des États-Unis en 2018. Même si l'infrastructure était physiquement située au Canada, le gouvernement fédéral américain pourrait en théorie exiger la remise de données auprès de l'entreprise mère. Dans sa recommandation d'avril, Erika Bially plaide que des « protections contractuelles et techniques » suffisantes ont été négociées. La Ligue des droits et libertés, dans une déclaration publiée le 18 avril, juge ces garanties insuffisantes et rappelle que des alternatives québécoises existent, à commencer par la plateforme **Opal** conçue au Centre universitaire de santé McGill et financée par des fonds publics québécois. ## Le volet IA, angle mort du débat public La controverse se cristallise, pour l'instant, autour de l'hébergement et du traitement des renseignements de santé. Mais une dimension encore peu discutée mérite l'attention des observateurs de la gouvernance de l'IA : le DSN est une plateforme où s'intégreront, dès 2026, plusieurs outils d'intelligence artificielle. Santé Québec a confirmé en août 2025 son intention de lancer un projet pilote d'IA pour la transcription automatique des notes médicales lors des consultations. Deux solutions québécoises certifiées sont déjà déployées dans le réseau : **Plume IA** et **CœurWay**. Les modèles de scribes cliniques se multiplient, et Epic lui-même intègre nativement des fonctionnalités d'IA générative dans sa suite MyChart et dans son module de synthèse automatisée de dossiers. Chaque note transcrite, chaque synthèse générée, chaque suggestion d'orientation thérapeutique constitue un traitement automatisé au sens de la **Loi 25**. L'article 12.1, pleinement en vigueur depuis septembre 2023, exige que les organismes publics informent la personne concernée de l'usage d'une décision fondée exclusivement sur un traitement automatisé. La future articulation de ces exigences avec les outils intégrés d'Epic n'a, à ce jour, pas été publiquement documentée par Santé Québec. ## Trois questions pour les prochaines semaines Trois questions structureront le débat jusqu'au déploiement. **La hiérarchie interministérielle.** Qui arbitrera entre le ministre du Numérique et la ministre responsable de Santé Québec lorsque l'Énoncé de politique entre en conflit avec un contrat signé ? Aucun cadre formel de résolution n'a encore été publié. **La doctrine d'exception.** L'Énoncé de février prévoit que certaines charges de travail puissent déroger à l'obligation d'hébergement souverain moyennant une analyse de risque documentée. Le DSN servira-t-il de premier précédent ? Si oui, ce cadre devra être rendu public pour éviter qu'il devienne la règle. **Les droits des personnes.** Les mécanismes d'information, de consentement et de contestation prévus par la Loi 25 s'appliqueront-ils dès le premier jour aux fonctions d'IA intégrées dans le DSN ? La Commission d'accès à l'information, dont le rapport quinquennal est attendu cette année, sera observée de près. ## Ce qui se joue au-delà du 9 mai Le DSN n'est pas un simple projet informatique. Il constitue le premier test grandeur nature d'une politique de souveraineté numérique qui vient à peine d'être formalisée, et il engage les données les plus sensibles d'environ un million de patients pour les deux régions pilotes. Son déploiement réussi ou reporté fixera une jurisprudence politique pour les deux ou trois prochaines années de gouvernance numérique au Québec. Pour les organisations publiques et privées qui suivront ce dossier, l'enseignement principal est déjà là : la gouvernance des données et la gouvernance de l'IA ne se pensent plus séparément. Les clauses contractuelles, les analyses d'impact et les mécanismes de supervision humaine doivent désormais converger vers un seul cadre. ## Sources - *La Presse*, « Dossier santé numérique : choc frontal entre Santé Québec et le gouvernement », 10 avril 2026. - *La Presse*, « Encore d'importants défis, montrent des documents internes », 17 avril 2026. - *La Presse*, « La ministre Bélanger se réserve le droit de stopper les projets pilotes de Santé Québec », 21 avril 2026. - Radio-Canada, « Nos données de santé ne sont pas du tout en sécurité, déplore le ministre Bélanger », avril 2026. - *Le Devoir*, « Le ministre Bélanger craint que le Dossier santé numérique ne soit pas prêt pour le 9 mai », avril 2026. - Ligue des droits et libertés, « Dossier santé numérique : au-delà des vœux pieux, il y a urgence d'agir pour notre souveraineté numérique », 18 avril 2026. - Gouvernement du Québec, *Énoncé de politique de souveraineté numérique et d'approvisionnement en technologies de l'information*, 13 février 2026. --- ### Canada et IA : le ministre Solomon à la traîne, l'Institut de sécurité en première ligne - URL : https://gouvernance.ai/actualites/canada-gouvernance-ia-solomon-icsia-2026 - Date : 2026-04-22 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : Canada, Evan Solomon, ICSIA, OpenAI, gouvernance IA, réglementation, sécurité IA - Résumé : Alors qu'Evan Solomon accuse un retard sur sa propre feuille de route législative, l'Institut canadien de la sécurité de l'IA (ICSIA) agit concrètement en obtenant l'accès aux protocoles internes d'OpenAI après l'affaire de Tumbler Ridge. ## Un ministre sans projet de loi, deux semaines après sa propre échéance Le Canada s'était doté d'un symbole fort en nommant, au printemps 2025, **Evan Solomon** au poste de tout premier ministre de l'Intelligence artificielle et de l'Innovation numérique. L'ancien journaliste politique promettait alors de donner au pays un cadre législatif moderne, distinct de la défunte Loi sur l'intelligence artificielle et les données (LIAD) qui avait sombré avec la prorogation du Parlement en janvier 2025. Solomon avait lui-même fixé le cap : une nouvelle proposition législative avant la fin du premier trimestre 2026. Nous sommes le 22 avril. Le projet de loi n'a pas été déposé. Lors du congrès du Parti libéral du Canada à Montréal, le 10 avril dernier, le ministre s'est exprimé devant une table ronde sur l'IA. Pressé par les journalistes sur le calendrier, il n'a livré qu'une réponse évasive : la loi viendra « très bientôt ». Une formule que la chroniqueuse Hélène Buzzetti, dans *Le Soleil* du 17 avril, a résumée sans détour en qualifiant Solomon de **« ministre du 'On verra' »**. Cette attente n'est pas anodine. Le vide législatif fédéral laisse les organisations canadiennes sans repères clairs pour encadrer leurs déploiements d'IA à haut risque, au moment même où l'Union européenne affine son propre calendrier de conformité et où certains États américains adoptent leurs propres règles sectorielles. ## Ce que l'on sait de la future loi Malgré le silence réglementaire, les contours de la future législation commencent à se dessiner par petites touches. Solomon a répété à plusieurs reprises que son gouvernement ne reproduira pas la LIAD telle quelle. L'approche envisagée serait plus ciblée, fondée sur les risques, et potentiellement articulée autour de secteurs prioritaires plutôt qu'un cadre horizontal unique. Le cabinet du premier ministre Mark Carney a par ailleurs signalé un virage vers la souveraineté numérique et les avantages économiques de l'IA, repositionnant le Canada comme un acteur compétitif à l'échelle mondiale plutôt que comme un régulateur prudentiel. Cette tension entre compétitivité et protection reste au cœur du débat. Le gouvernement a également indiqué vouloir soumettre un nouveau projet de loi sur la protection de la vie privée des consommateurs pour succéder à la Loi sur la protection des renseignements personnels (LPRPDE), un texte qui devra nécessairement s'articuler avec les règles encadrant l'IA automatisée. ## L'ICSIA face à OpenAI : la gouvernance en actes Si l'action législative se fait attendre, le volet opérationnel de la gouvernance de l'IA au Canada connaît, lui, un développement concret. L'**Institut canadien de la sécurité de l'IA (ICSIA)** a obtenu, au début du mois d'avril, un accès complet aux **protocoles internes d'OpenAI** — une première pour un organisme gouvernemental canadien. Cette annonce fait suite à un événement troublant : il est apparu que la personne responsable de la fusillade de Tumbler Ridge, en Colombie-Britannique, avait été interdite par OpenAI d'utiliser ChatGPT en raison d'interactions préoccupantes, sans que l'entreprise n'en informe les autorités. En mars, Solomon avait rencontré le PDG d'OpenAI pour obtenir des engagements fermes. Ces engagements incluent désormais : - **La communication de rapports** décrivant les systèmes développés par OpenAI pour identifier les utilisateurs à haut risque ou en situation de détresse ; - **L'établissement d'un point de contact direct** avec la Gendarmerie royale du Canada (GRC) ; - **La mise en œuvre de protocoles de sécurité** visant à orienter les personnes vulnérables vers les services d'aide appropriés ; - **L'examen indépendant** du modèle d'OpenAI par l'ICSIA, qui fournira des recommandations techniques au cabinet du ministre. Cette démarche illustre ce que peut accomplir un organisme de surveillance sectoriel disposant d'un mandat clair et d'une autorité de négociation reconnue — même en l'absence d'une loi contraignante. ## Gouvernance sans loi : les risques d'une posture attentiste Le paradoxe canadien de l'heure tient à ceci : le pays dispose d'institutions capables d'agir (l'ICSIA, le Commissariat à la protection de la vie privée, les organismes sectoriels), mais sans cadre légal pour ancrer et généraliser leurs actions. L'approche volontaire — obtenir des engagements d'OpenAI par la voie diplomatique — fonctionne dans un cas précis, avec un acteur coopératif. Elle montrerait ses limites face à un fournisseur moins accommodant ou dans une situation où des droits individuels seraient en jeu sans recours légal explicite. Pour les organisations québécoises et canadiennes, cet entre-deux crée une incertitude opérationnelle réelle. Doivent-elles anticiper une législation calquée sur l'approche sectorielle ? Harmonisée avec la Loi 25 au Québec ? Alignée sur l'AI Act européen pour les entreprises exportatrices ? En l'absence de réponse formelle, les équipes de conformité naviguent à vue. ## Ce qu'il faut retenir La semaine du 22 avril 2026 consacre une image ambivalente de la gouvernance de l'IA au Canada : un ministre qui accumule les retards sur son propre calendrier, et un Institut de sécurité qui, lui, avance. Le prochain test sera le dépôt effectif d'un projet de loi — si Solomon tient enfin sa promesse — et la solidité des mécanismes prévus pour couvrir les cas que ni les engagements volontaires ni les outils existants ne peuvent traiter. Pour les décideurs et responsables de conformité, la recommandation reste la même qu'en début d'année : ne pas attendre la loi pour structurer une gouvernance interne robuste. Le cadre viendra. Les pratiques, elles, doivent déjà exister. --- **Sources** - Hélène Buzzetti, *Le Soleil*, 17 avril 2026 — [L'IA et le ministre du « On verra »](https://www.lesoleil.com/chroniques/helene-buzzetti/2026/04/17/lia-et-le-ministre-du-on-verra-GWCED52XRFFSHJP77ENKWFILLQ/) - *La Presse*, 10 avril 2026 — [Un institut voué à la sécurité de l'IA examine les protocoles d'OpenAI](https://www.lapresse.ca/affaires/techno/2026-04-10/un-institut-voue-a-la-securite-de-l-ia-examine-les-protocoles-d-openai.php) - BLG, mars 2026 — [Un tournant décisif pour l'IA au Canada en 2026 ?](https://www.blg.com/fr/insights/2026/03/a-turning-point-for-ai-in-canada-in-2026) - Radio-Canada — [Ottawa tarde à annoncer son changement d'approche en matière d'IA](https://ici.radio-canada.ca/nouvelle/2215519/carney-federal-ia-intelligence-artificielle) --- ### Infrastructure IA au Québec : 81 centres de données, nouveaux tarifs et appel fédéral pour des méga-centres souverains - URL : https://gouvernance.ai/actualites/infrastructure-ia-quebec-centres-donnees-gouvernance-2026 - Date : 2026-03-26 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : infrastructure IA, centres de données, Hydro-Québec, tarification, centres souverains, appel à propositions, gouvernance, énergie - Résumé : Le Québec compte 81 centres de données et fait face à une demande explosive. Hydro-Québec double les tarifs, Ottawa lance un appel pour des méga-centres souverains de plus de 100 MW. État des lieux et enjeux de gouvernance. ## La course aux mégawatts Le Québec comptait **81 centres de données** en activité en septembre 2025, selon les données compilées par Hydro-Québec. Leur consommation de pointe atteignait alors **150 MW**, un chiffre qui paraît modeste comparé à la demande anticipée. L'Agence internationale de l'énergie (AIE) prévoit que la consommation électrique mondiale des centres de données **doublera entre 2022 et 2026**, portée par l'explosion de l'IA générative et des charges de calcul intensif. Hydro-Québec a identifié les centres de données comme le **poste de croissance le plus important** dans son plan d'approvisionnement sur dix ans. La société d'État fait face à une file d'attente de projets représentant plusieurs milliers de mégawatts, un volume qui dépasse largement la capacité disponible à court terme. Le premier ministre François Legault avait donné le ton en novembre 2025 avec une déclaration sans ambiguïté : **« Amenez-en des centres de données. »** Le message était clair : le Québec souhaite attirer ces investissements. Mais entre l'invitation et la capacité réelle d'accueil, l'écart se creuse. ## L'appel fédéral pour des centres souverains Le **15 janvier 2026**, Ottawa a lancé un appel à propositions pour la construction de centres de données souverains d'une capacité supérieure à **100 MW**. L'initiative, pilotée par le ministre Evan Solomon, s'inscrit dans le processus de protocoles d'entente (MOU) avec les promoteurs intéressés. Les critères de sélection publiés par le gouvernement fédéral couvrent quatre axes : - **Faisabilité démontrée** : un chemin clair vers la réalisation du projet, incluant le financement et les échéanciers - **Participation des Premières Nations** : implication des communautés autochtones dans la gouvernance et les retombées des projets - **Impact environnemental minimal** : empreinte carbone réduite, gestion responsable de l'eau et des ressources - **Chaîne d'approvisionnement canadienne** : favoriser les fournisseurs et la main-d'oeuvre du pays L'appel s'est clos le **15 février 2026**. Point important : aucun financement direct n'a été annoncé dans le cadre de cet exercice. Il s'agit pour l'instant de protocoles d'entente exploratoires, une étape préliminaire qui permettra au gouvernement de cartographier les projets viables avant d'engager des fonds publics. ## Le nouveau tarif Hydro-Québec Hydro-Québec a proposé un **nouveau tarif de 13 cents le kilowattheure** pour les centres de données d'une puissance de **5 MW et plus**. Ce taux représente environ le **double des tarifs industriels** qui s'appliquaient jusqu'ici à ces installations. La hausse reflète une réalité : l'électricité à bas coût qui a longtemps attiré les centres de données au Québec a aussi créé une pression considérable sur le réseau. Le nouveau tarif vise à mieux refléter le coût réel de la desserte de ces installations énergivores. Le tarif doit encore être **approuvé par la Régie de l'énergie**, et son entrée en vigueur est attendue **avant la fin de 2026**. L'arbitrage est délicat : - **Trop bas**, le tarif continue d'attirer une demande que le réseau ne peut absorber - **Trop élevé**, il risque de détourner les investisseurs vers d'autres juridictions, notamment l'Ontario et les États américains voisins Même à 13 cents, le tarif québécois demeure compétitif par rapport à la plupart des marchés nord-américains, surtout lorsqu'on tient compte du caractère renouvelable de l'hydroélectricité. ## L'avantage québécois sous pression Le Québec dispose d'atouts structurels reconnus pour l'hébergement d'infrastructures IA : - **Hydroélectricité propre et abordable** : un avantage économique et environnemental que peu de juridictions peuvent égaler - **Climat froid** : réduction naturelle des coûts de refroidissement des centres de données - **Écosystème de recherche** : proximité avec Mila, l'un des plus importants instituts de recherche en apprentissage profond au monde, ainsi qu'avec les universités montréalaises Ces avantages sont toutefois mis à l'épreuve. La **capacité limitée du réseau électrique** face à la demande explosive constitue le principal goulet d'étranglement. Hydro-Québec doit arbitrer entre les centres de données, la décarbonation industrielle, l'électrification des transports et les besoins résidentiels. La concurrence s'intensifie également. L'**Ontario** investit dans ses propres capacités d'accueil. L'**Alberta** mise sur ses ressources énergétiques et ses coûts fonciers réduits. À l'international, plusieurs États américains et pays nordiques courtisent les mêmes projets. L'avantage québécois reste réel, mais il n'est plus exclusif. ## Gouvernance des infrastructures : les questions ouvertes Le développement rapide des centres de données au Québec soulève plusieurs questions de gouvernance qui restent sans réponse définitive. **Accès équitable.** Les méga-centres de plus de 100 MW monopolisent l'attention et les ressources. Quel mécanisme d'allocation garantira que les PME et les startups québécoises puissent accéder à la capacité de calcul nécessaire à leur croissance? La question des quotas réservés ou des tarifs différenciés pour les plus petits acteurs reste ouverte. **Participation des Premières Nations.** L'appel fédéral inclut explicitement ce critère, mais les modalités concrètes de participation, que ce soit en termes de gouvernance, de retombées économiques ou de consentement pour les projets situés sur les territoires traditionnels, demeurent à définir. **Impact environnemental.** Même alimentés par de l'hydroélectricité, les centres de données consomment d'importantes quantités d'**eau pour le refroidissement** et génèrent une empreinte carbone liée à la construction et à la fabrication des équipements. L'évaluation environnementale de ces projets devra aller au-delà de la seule source d'énergie. **Conformité réglementaire.** Les organisations qui hébergent leurs systèmes d'IA dans ces centres demeurent assujetties à la **Loi 25** et à ses exigences en matière de protection des renseignements personnels et de transparence algorithmique. L'infrastructure physique ne dispense pas de la gouvernance logicielle. **Articulation provincial-fédéral.** L'Énoncé de souveraineté numérique du Québec et la politique fédérale sur les centres souverains ne sont pas toujours alignés. La coordination entre les deux paliers de gouvernement sera déterminante pour éviter les duplications et les incohérences dans l'encadrement de ces infrastructures. Le Québec se trouve à un moment charnière. Les décisions prises dans les prochains mois sur la tarification, l'allocation de la capacité et la gouvernance des projets façonneront le rôle de la province dans l'infrastructure IA nord-américaine pour les années à venir. --- ### Constitution du Québec : le débat sur l'intégration de l'intelligence artificielle s'invite au projet de loi 1 - URL : https://gouvernance.ai/actualites/constitution-quebec-intelligence-artificielle-droits-numeriques - Date : 2026-03-26 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : constitution, projet de loi 1, droits numériques, intelligence artificielle, Charte des droits, gouvernance, Assemblée nationale - Résumé : Alors que le projet de loi 1 sur la constitution du Québec franchit l'étape de l'adoption de principe, des voix s'élèvent pour y intégrer les enjeux liés à l'intelligence artificielle et aux droits numériques. Tour d'horizon du débat. ## Le projet de loi 1 : où en est-on ? Le projet de loi 1, intitulé **Loi constitutionnelle de 2025 sur le Québec**, a été déposé par le ministre de la Justice Simon Jolin-Barrette avec l'ambition de doter le Québec de son propre texte constitutionnel. La démarche a donné lieu à une vaste consultation publique, tenue du 4 décembre 2025 au 18 février 2026, au cours de laquelle plus de **200 groupes ont été entendus** et environ **300 mémoires ont été déposés**. Le projet se trouve désormais à l'étape de l'adoption de principe à l'Assemblée nationale, avant de passer à l'étude détaillée en commission parlementaire. Son parcours législatif est loin d'être tranquille : - Plusieurs organisations ont remis en question la portée et la crédibilité du projet dans sa forme actuelle - Les Premières Nations ont dénoncé leur exclusion du processus consultatif - Le **Comité des droits de l'homme des Nations Unies** a soulevé des préoccupations le 23 mars 2026, ajoutant une dimension internationale au débat Le projet de loi 1 suscite donc des discussions qui dépassent largement le cadre habituel de la politique québécoise. ## L'IA s'invite dans le débat constitutionnel Parmi les interventions formulées lors des consultations, plusieurs parties prenantes ont soulevé une question qui aurait pu sembler improbable il y a quelques années : faut-il intégrer la gouvernance de l'intelligence artificielle dans le cadre constitutionnel du Québec ? Des propositions ont émergé en faveur d'une **Charte québécoise des droits numériques** qui viendrait protéger l'intégrité numérique des citoyens, encadrer la collecte et l'utilisation des données personnelles et garantir les droits fondamentaux dans l'environnement numérique. L'argumentaire repose sur un constat simple : une constitution devrait refléter les défis de demain autant que les acquis d'hier, et l'intelligence artificielle transforme déjà en profondeur la société québécoise. Le Québec dispose d'ailleurs d'atouts considérables pour légitimer cette ambition. L'écosystème montréalais en IA est reconnu mondialement, avec des figures comme **Yoshua Bengio**, des institutions de recherche comme **Mila** et l'**Observatoire international sur les impacts sociétaux de l'IA et du numérique (OBVIA)**, ainsi qu'un réseau dense de centres de recherche et d'expertise. Cette concentration de compétences renforce l'idée que le Québec pourrait jouer un rôle de précurseur dans la constitutionnalisation des droits liés à l'IA. ## Ce que font les autres : repères internationaux Le Québec n'évolue pas en vase clos. Plusieurs juridictions ont déjà pris des mesures structurantes en matière de gouvernance de l'IA, offrant autant de points de comparaison. **Corée du Sud** — Le pays a adopté le *AI Basic Act*, entré en vigueur le 22 janvier 2026. Il s'agit de la première loi-cadre complète sur l'intelligence artificielle au monde, comptant 43 articles répartis en 6 chapitres. Le texte couvre la transparence algorithmique, l'étiquetage des systèmes d'IA à haut risque et la protection des données. **Union européenne** — Le règlement sur l'intelligence artificielle (AI Act) entre dans sa phase d'application à compter du 2 août 2026. Son approche par niveaux de risque impose des obligations graduées aux fournisseurs et aux déployeurs de systèmes d'IA, avec des exigences renforcées pour les systèmes considérés à haut risque. **Estonie** — Le petit État balte a opté pour une approche de gouvernance *digital-first*, où la technologie doit servir à renforcer les capacités humaines plutôt qu'à se substituer aux personnes. Ce principe de complémentarité guide l'ensemble de la stratégie numérique estonienne. **Canada fédéral** — Le projet de loi C-27 et son volet LIAD (Loi sur l'intelligence artificielle et les données) sont morts au feuilleton. Le ministre de l'Innovation Evan Solomon travaille actuellement à l'élaboration d'une nouvelle stratégie, mais aucun calendrier précis n'a été communiqué. Ce vide réglementaire au niveau fédéral pourrait paradoxalement renforcer l'argument en faveur d'une initiative constitutionnelle québécoise. ## Protéger le travail humain et les professions réglementées L'un des axes centraux du débat porte sur la **primauté de l'humain** face aux systèmes automatisés. Plusieurs intervenants ont insisté sur le fait que l'IA ne devrait pas se substituer entièrement aux personnes dans les activités qui requièrent du jugement, de l'éthique ou l'exercice d'une responsabilité professionnelle. Les exemples fréquemment cités illustrent la diversité des domaines concernés : - **Éducation** : l'évaluation d'un étudiant implique une appréciation qualitative que les systèmes automatisés ne peuvent reproduire - **Santé** : le traitement d'un patient nécessite une relation de confiance et un jugement clinique qui dépassent l'analyse de données - **Justice** : le rendu de décisions judiciaires engage la responsabilité du magistrat et fait appel à des principes d'équité difficilement modélisables - **Déontologie professionnelle** : l'exercice de fonctions déontologiques repose sur une compréhension contextuelle et éthique propre à chaque situation Le principe avancé est celui de l'**IA comme outil d'assistance sous supervision humaine**, et non comme substitut. Plusieurs ordres professionnels québécois ont d'ailleurs déjà amorcé cette réflexion dans leurs propres cadres de pratique. Le **Barreau du Québec** a publié un guide pratique sur l'IA générative, le **Collège des médecins du Québec** (CMQ) encadre l'utilisation de scribes IA, et l'**Ordre des ingénieurs du Québec** (OIQ) a pris position sur le développement responsable de l'intelligence artificielle. ## Les prochaines étapes Le projet de loi 1 s'apprête à entrer en étude détaillée en commission parlementaire. La question de savoir si des dispositions relatives à l'IA et aux droits numériques seront formellement proposées sous forme d'amendements reste ouverte. En parallèle, le Québec dispose déjà de plusieurs outils réglementaires et stratégiques qui encadrent, à divers degrés, l'utilisation de l'intelligence artificielle : - La **Loi 25** sur la protection des renseignements personnels, pleinement en vigueur depuis septembre 2024 - L'**Énoncé de souveraineté numérique** du gouvernement du Québec - Le **cadre de bonnes pratiques en IA générative** du ministère de la Cybersécurité et du Numérique (MCN) - Les **12 principes pour une utilisation responsable de l'IA** adoptés par le gouvernement La question fondamentale qui se pose est la suivante : ces protections doivent-elles être élevées au rang constitutionnel pour leur donner une force juridique supérieure, ou est-il préférable de les maintenir dans des lois et des cadres spécialisés, plus souples et plus faciles à adapter à l'évolution rapide des technologies ? Le débat est lancé. L'étude détaillée du projet de loi 1 en commission parlementaire permettra de mesurer la place que les législateurs québécois souhaitent accorder à l'intelligence artificielle dans l'architecture constitutionnelle du Québec. --- ### Souveraineté numérique : le Québec dévoile son Énoncé de politique et investit 1,4 milliard - URL : https://gouvernance.ai/actualites/souverainete-numerique-quebec-enonce-politique-2026 - Date : 2026-03-25 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : souveraineté numérique, Énoncé de politique, Gilles Bélanger, Nuage gouvernemental, CLOUD Act, logiciel libre, approvisionnement TI - Résumé : Le Québec publie son Énoncé de politique de souveraineté numérique : 1,4 milliard réservé, hébergement souverain au Nuage gouvernemental, contrats réservés aux entreprises locales. Analyse des mesures et de leurs limites. ## Un virage stratégique pour l'État québécois Le 13 février 2026, le ministre de la Cybersécurité et du Numérique, **Gilles Bélanger**, a dévoilé l'**Énoncé de politique de souveraineté numérique et d'approvisionnement en technologies de l'information**. Il s'agit de la première politique québécoise entièrement consacrée à la souveraineté numérique de l'État. Le contexte justifiant cette initiative est bien documenté. La transformation numérique accélérée des services publics a créé une **dépendance croissante envers des fournisseurs étrangers**, principalement américains, pour l'hébergement des données, les logiciels de gestion et les plateformes infonuagiques. Plusieurs incidents, dont des questions soulevées sur l'hébergement de données de santé à l'extérieur du pays, ont amplifié la pression politique pour agir. L'Énoncé se veut un cadre structurant pour les prochaines années. Il fixe des orientations en matière d'approvisionnement, d'hébergement, de développement des compétences et de soutien à l'industrie locale des technologies. ## Les mesures concrètes L'Énoncé de politique s'accompagne d'un engagement financier de **1,4 milliard de dollars**, répartis sur une quarantaine de projets. Voici les axes principaux : - **Hébergement souverain** : les données sensibles de l'État devront être hébergées au **Nuage gouvernemental du Québec (NGQ)** et dans les centres de traitement gouvernementaux situés sur le territoire québécois. L'objectif est de rapatrier progressivement les charges de travail critiques hébergées chez des fournisseurs étrangers. - **Contrats réservés** : certains marchés publics en matière de matériel informatique et de logiciels seront réservés aux **entreprises québécoises et canadiennes**. Cette mesure vise à renforcer la base industrielle locale et à réduire la dépendance envers les grands intégrateurs internationaux. - **Logiciel libre et solutions sur mesure** : l'Énoncé prévoit un renforcement de l'utilisation du **logiciel libre** dans l'administration publique, ainsi que le développement de solutions sur mesure lorsque les produits commerciaux disponibles ne répondent pas aux exigences de souveraineté. - **Développement de l'expertise** : des investissements sont prévus en **formation**, en partenariats avec l'industrie et en programmes d'innovation pour développer un bassin de compétences numériques québécoises. Le gouvernement souhaite réduire sa dépendance envers les consultants externes pour la gestion de ses systèmes critiques. ## Le CLOUD Act, l'éléphant dans la pièce L'une des motivations centrales de l'Énoncé, bien qu'elle ne soit pas toujours nommée explicitement, est le **CLOUD Act** américain. Adopté en 2018, ce texte législatif permet aux autorités américaines d'exiger l'accès aux données détenues par des entreprises américaines, **peu importe le pays où ces données sont physiquement stockées**. Concrètement, cela signifie que des données gouvernementales québécoises hébergées chez Microsoft Azure ou Amazon Web Services, même sur des serveurs situés à Montréal, pourraient théoriquement faire l'objet d'une demande d'accès par les autorités américaines. Le Canada négocie depuis 2022 un **accord bilatéral CLOUD Act** avec les États-Unis, similaire à celui conclu entre les États-Unis et le Royaume-Uni. À ce jour, aucun accord n'a été signé. Le premier ministre **Mark Carney** a évoqué la possibilité de créer un **nuage souverain fédéral** pour protéger les données canadiennes, mais ce projet en est encore au stade des discussions. En attendant, la **majorité des données canadiennes** continuent d'être gérées par des entreprises américaines. Le Québec, en misant sur le NGQ, tente de reprendre le contrôle à l'échelle provinciale, sans attendre une solution fédérale. ## Les critiques et contradictions L'Énoncé de politique a été accueilli favorablement dans son principe, mais plusieurs observateurs ont relevé des **contradictions** entre le discours souverainiste et certaines décisions récentes du gouvernement. - **Identité numérique** : le contrat de développement du programme d'identité numérique québécoise a été attribué à une **multinationale américaine**, ce qui soulève des questions sur la cohérence de la démarche. - **Données de santé** : des préoccupations persistent quant à la possibilité que certaines données de santé soient hébergées sur des infrastructures situées aux États-Unis, en contradiction directe avec l'esprit de l'Énoncé. - **Écart entre discours et approvisionnement** : plusieurs contrats technologiques majeurs continuent d'être octroyés à des fournisseurs étrangers, ce qui alimente le scepticisme quant à la portée réelle des nouvelles orientations. La **Ligue des droits et libertés** a insisté sur la nécessité de « reprendre le contrôle de nos données » et demande des mécanismes de vérification indépendants. Le **Barreau du Québec**, pour sa part, a utilisé l'expression **« maîtres chez nous »** en matière de gestion des données, appelant à des garanties juridiques contraignantes plutôt qu'à de simples orientations politiques. ## Ce que ça change pour les organisations L'Énoncé de politique aura des répercussions concrètes pour plusieurs catégories d'acteurs au Québec. - **Fournisseurs de l'État** : les entreprises qui vendent des produits ou des services technologiques au gouvernement devront se conformer à de **nouvelles exigences de localisation** des données et de développement local. Les fournisseurs étrangers pourraient être exclus de certains marchés réservés. - **Secteur de l'éducation** : les établissements d'enseignement qui utilisent massivement des plateformes infonuagiques étrangères (Google Workspace, Microsoft 365) devront évaluer si leurs choix technologiques sont compatibles avec les nouvelles orientations gouvernementales. - **PME technologiques québécoises** : les contrats réservés représentent une **opportunité significative** pour les entreprises locales en TI. Des firmes spécialisées en infonuagique, en cybersécurité et en développement logiciel pourraient bénéficier directement de cette réorientation des achats publics. - **Conformité Loi 25** : l'hébergement souverain renforce les obligations déjà prévues par la **Loi 25** en matière de protection des renseignements personnels. Les organisations qui traitent des données pour le compte de l'État devront démontrer que leurs pratiques d'hébergement respectent les exigences de localisation. L'Énoncé de politique marque un passage de la réflexion à l'action en matière de souveraineté numérique au Québec. Son succès dépendra toutefois de la capacité du gouvernement à aligner ses décisions d'approvisionnement avec les principes qu'il a lui-même édictés. --- ### IA agentique sans gouvernance des données : le pari risqué de 64 % des entreprises - URL : https://gouvernance.ai/actualites/ia-agentique-deploiement-sans-fondations-mdm - Date : 2026-03-11 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : IA agentique, MDM, gouvernance des données, qualité des données, DataOps, dette technique, CDO, conformité - Résumé : Deux entreprises sur trois déploient des agents IA autonomes sans fondations MDM. Une enquête Semarchy met en lumière un angle mort de gouvernance majeur : on ne peut pas construire des systèmes autonomes fiables sur des données qui ne le sont pas. ## On ne gouverne pas des agents IA avec des données ingouvernées Quand on parle d'IA agentique, on parle de systèmes qui ne se contentent plus de répondre -ils décident, exécutent et enchaînent des actions de manière autonome. C'est un saut qualitatif considérable. Mais ce saut repose sur un prérequis que la majorité des organisations choisissent d'ignorer : la qualité et la gouvernance des données qui alimentent ces agents. Une enquête publiée en mars 2026 par l'institut Censuswide pour le compte de Semarchy, spécialiste du Master Data Management, vient poser des chiffres sur ce que beaucoup pressentaient. Et le constat est sans appel : **les investissements dans l'IA agentique progressent trois fois plus vite que la maturité des fondations de données** censées les alimenter. L'étude, qui cible des organisations de plus de 200 millions de dollars de chiffre d'affaires déjà engagées dans des projets IA, révèle un décalage structurel entre l'ambition affichée et la réalité opérationnelle. ## Le chiffre qui devrait alarmer tout responsable de gouvernance Le résultat le plus frappant : **64 % des dirigeants français conduisent des initiatives d'IA agentique sans avoir mis en place de fondations MDM** (Master Data Management). Plus de la moitié -53 % -n'appliquent même pas de normes formelles de qualité des données. Traduit en termes de gouvernance, cela signifie que la majorité des agents IA en production s'appuient sur des pipelines dans lesquels personne ne garantit la traçabilité des données, la cohérence des référentiels, ni la fiabilité des entrées. Dans un système classique, un problème de données produit un rapport erroné qu'un humain peut corriger. Dans un système agentique, un problème de données produit une chaîne de décisions autonomes fondées sur des informations incorrectes -et le coût de correction croît exponentiellement avec chaque action enchaînée. C'est la différence fondamentale : **l'IA agentique transforme chaque défaut de gouvernance des données en risque d'erreur systémique**, pas seulement ponctuel. ## Quand les architectes des données sont exclus de la stratégie IA Les conséquences ne sont pas théoriques. En 2025, un dirigeant sur cinq a déjà subi des retards dans ses projets IA à cause de données peu fiables (21 %), de problèmes de qualité (19 %) ou d'une perte de confiance dans les modèles IA due aux entrées (18 %). Trois symptômes, une seule cause : des architectures de données non préparées pour alimenter des systèmes d'inférence à haute fréquence. Mais le paradoxe le plus révélateur est ailleurs. L'étude montre que la gestion des données est identifiée comme **le premier obstacle aux projets IA** par les répondants eux-mêmes. Pourtant, **seulement 11 % des CDO et 23 % des CIO** jouent un rôle décisionnel dans la stratégie IA de leur organisation. Relisez ce chiffre. Les personnes les mieux positionnées pour résoudre le problème le plus fréquemment cité sont systématiquement écartées des instances où se prennent les décisions. Comme le résume Craig Gravina, directeur technique de Semarchy : « Vous ne pouvez tout simplement pas séparer la vision de l'IA de la réalité des données. Lorsque les architectes de votre infrastructure de données sont écartés de la stratégie, les lacunes d'exécution sont inévitables. » Pour quiconque travaille en gouvernance de l'IA, c'est un signal d'alarme. Il ne s'agit pas d'un problème technique -c'est un **défaut de structure décisionnelle**. Tant que le CDO restera absent de la table où se conçoit la stratégie IA, les organisations continueront de construire sur des fondations fragiles. ## L'optimisme de façade : +42 points de confiance, même maturité L'étude révèle un autre décalage préoccupant. La confiance des dirigeants français dans l'atteinte de leurs objectifs IA est passée de **45 % à 87 % en un an** -soit 42 points de progression. Une telle hausse ne correspond à aucune évolution plausible de maturité organisationnelle sur la même période. Et les données le confirment : **80 % de ces mêmes dirigeants** reconnaissent que les compétences de leur organisation en matière de données freinent leur potentiel IA. Seulement **45 % des entreprises françaises** se considèrent effectivement prêtes. L'écart entre la confiance déclarée et la capacité réelle est un indicateur classique de dette technique en accumulation -sauf qu'ici, la dette porte sur l'IA elle-même. Côté conformité, la progression de 50 % à 68 % des organisations ayant intégré l'éthique et la régulation IA dans leur gouvernance semble encourageante. Mais Semarchy précise que cette progression résulte d'une **adaptation sous pression réglementaire**, pas d'une anticipation proactive. La distinction compte : une conformité construite dans l'urgence produit des cases cochées, pas des architectures robustes. ## L'inversion des priorités d'investissement Les chiffres sur les investissements prévus en 2026 illustrent parfaitement le problème. **82 % des entreprises françaises** prévoient d'y consacrer plus de 10 % de leur budget technologique. Mais regardez l'ordre des priorités : 1. IA agentique opérationnelle -**43 %** 2. DataOps et data products -**43 %** 3. Pilotes agentiques -**38 %** 4. Gestion des données -**37 %** La gestion des données arrive en dernière position. Les organisations investissent dans les couches applicatives de l'IA avant de sécuriser les couches fondationnelles. C'est comme construire un immeuble en commençant par le toit. Ce séquencement inversé n'est pas une simple erreur de priorisation -c'est le symptôme d'une gouvernance de l'IA qui fonctionne en silo. Les équipes IA avancent sur leurs cas d'usage sans coordination avec les équipes data, et les instances de pilotage ne disposent pas des mécanismes pour détecter le décalage avant qu'il ne devienne un problème opérationnel. ## Ce que cela implique pour la gouvernance de l'IA Pour les organisations qui prennent la gouvernance de l'IA au sérieux, cette étude pointe vers des actions concrètes. **Intégrer le CDO dans la gouvernance IA.** Si les données sont le premier obstacle aux projets IA, la personne responsable des données doit siéger dans l'instance qui pilote la stratégie IA. Ce n'est pas une question d'organigramme -c'est une condition de viabilité des déploiements. **Auditer les fondations avant d'accélérer.** Avant de déployer un agent autonome en production, évaluer la maturité MDM du pipeline qu'il consommera. Un agent IA qui prend vingt décisions par minute sur des données incohérentes ne produit pas de la valeur -il industrialise l'erreur. **Séquencer correctement les investissements.** L'IA agentique et la consolidation des données ne sont pas des projets en compétition -ils sont en séquence. Investir dans les agents sans investir d'abord dans les données, c'est accumuler une dette technique dont le coût de correction augmente avec l'échelle. **Traiter la conformité comme un investissement d'architecture.** La conformité réglementaire en matière d'IA ne doit pas être une réponse réactive à la pression -elle doit être intégrée dès la conception des pipelines de données. Les organisations qui construisent la conformité en amont économisent des ordres de grandeur en coûts de correction par rapport à celles qui l'ajoutent après coup. ## Le fond du problème L'enquête Semarchy pose une question que tout comité de gouvernance de l'IA devrait se poser : **peut-on déployer des systèmes autonomes fiables sur des fondations de données qui ne le sont pas ?** Les chiffres répondent clairement que non. Et pourtant, deux entreprises sur trois font exactement ce pari. Les premiers signaux de défaillance -retards, perte de confiance, erreurs d'inférence -sont déjà documentés. La question n'est plus de savoir si cette dette technique se matérialisera, mais quand et à quelle échelle. Pour les organisations qui veulent éviter ce scénario, la réponse n'est pas de ralentir l'adoption de l'IA agentique. C'est de gouverner ses fondations avec la même rigueur que ses applications. --- **Sources :** - Semarchy / Censuswide, *« The State of Master Data Management 2026 »*, enquête menée auprès de cadres supérieurs (CDO, CIO) d'organisations de plus de 200 M$ de CA, publiée en mars 2026. Données françaises isolées dans un volet spécifique de l'étude. - Déclarations de Craig Gravina, directeur technique de Semarchy, mars 2026. --- ### Les 5 tendances réglementaires IA à surveiller en 2026 - URL : https://gouvernance.ai/actualites/tendances-reglementaires-ia-2026 - Date : 2026-02-26 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : réglementation, tendances 2026, AI Act, AIDA, ISO 42001, normes sectorielles, conformité - Résumé : De l'entrée en vigueur de l'AI Act à l'émergence de normes sectorielles, le paysage réglementaire de l'IA se transforme rapidement. Voici les tendances clés pour 2026. ## Un tournant réglementaire mondial L'année 2026 marque un point d'inflexion dans la réglementation de l'intelligence artificielle. Après des années de discussions et de consultations, les cadres juridiques se concrétisent et les organisations doivent désormais passer de la veille à l'action. Voici les cinq tendances majeures que nous suivons au Cercle de Gouvernance de l'IA. ## 1. L'AI Act entre dans sa phase opérationnelle Depuis le 2 février 2025, les premières dispositions du règlement européen sont applicables. En 2026, les **obligations relatives aux systèmes à haut risque** commencent à produire leurs effets concrets : - Les fournisseurs doivent mettre en place des systèmes de gestion de la qualité - Les évaluations de conformité deviennent obligatoires avant la mise sur le marché - Les bases de données de l'UE répertorient désormais les systèmes à haut risque Pour les organisations canadiennes opérant sur le marché européen, l'heure n'est plus à l'observation mais à la **mise en conformité active**. ## 2. L'AIDA prend forme au Canada Le volet intelligence artificielle du projet de loi C-27 continue son chemin parlementaire. Les consultations ont permis de préciser plusieurs aspects clés : - La définition des systèmes à « incidence élevée » - Les mécanismes d'application et de sanction - Le rôle du futur Commissaire à l'intelligence artificielle et aux données Les organisations qui ont anticipé en mettant en place des cadres de gouvernance dès maintenant seront en position de force lors de l'adoption définitive. ## 3. La norme ISO 42001 devient un standard de marché La certification **ISO/IEC 42001** n'est plus un simple avantage concurrentiel, elle devient progressivement une **exigence contractuelle**. Nous observons une tendance claire : - Les grands donneurs d'ordres intègrent la certification dans leurs appels d'offres - Les investisseurs demandent des preuves de gouvernance IA structurée - Les partenaires internationaux la considèrent comme un prérequis Au Québec, le nombre d'organisations en démarche de certification a **triplé** en un an. ## 4. L'émergence de normes sectorielles Au-delà des cadres généraux, des **réglementations sectorielles** spécifiques à l'IA apparaissent : - **Santé** : les régulateurs exigent des validations cliniques spécifiques pour les algorithmes de diagnostic - **Finance** : l'AMF et le BSIF renforcent les exigences de transparence algorithmique - **Éducation** : des balises encadrent l'utilisation de l'IA générative dans les institutions - **Secteur public** : le Secrétariat du Conseil du trésor met à jour le cadre MCN avec des dispositions IA Cette fragmentation sectorielle complexifie la conformité pour les organisations qui opèrent dans plusieurs domaines. ## 5. La gouvernance de l'IA générative se formalise L'IA générative, avec ses risques spécifiques (hallucinations, propriété intellectuelle, confidentialité), fait l'objet d'une attention réglementaire croissante : - Les obligations de transparence se précisent : les contenus générés par l'IA devront être identifiés - Les politiques d'utilisation acceptable deviennent la norme dans les organisations - Les questions de droits d'auteur sur les contenus générés restent un sujet juridique ouvert ## Ce que nous recommandons Face à cette accélération réglementaire, notre conseil est clair : **structurez votre gouvernance maintenant**. Les organisations qui attendent l'adoption définitive des lois pour agir accumulent une dette de conformité qui sera coûteuse à résorber. Les outils du Cercle, registre des systèmes IA, grilles d'évaluation des risques, modèles de politiques, sont conçus pour vous permettre de démarrer rapidement et de vous adapter au fur et à mesure que le cadre réglementaire se précise. --- ### Synthèse : vers un cadre québécois de gouvernance de l'IA en 2026 - URL : https://gouvernance.ai/actualites/synthese-cadre-quebecois-gouvernance-ia-2026 - Date : 2026-02-24 - Catégorie : opinion - Auteur : florian-brobst - Mots-clés : synthèse, cadre québécois, principes, CAI, registre, certification, bac à sable - Résumé : Synthèse de la série : sept principes directeurs, architecture institutionnelle, mécanismes concrets et stratégie de mise en œuvre pour un cadre québécois de gouvernance de l'IA en 2026. ## Un moment décisif Le Québec se trouve à un moment charnière dans sa relation avec l'intelligence artificielle. Les développements des derniers mois, la maturation de l'AI Act européen, la mort du projet de loi fédéral C-27, la nomination d'un ministre canadien de l'IA, le virage déréglementaire américain, l'émergence de l'IA agentique, les batailles juridiques sur le droit d'auteur, les menaces des deepfakes, dessinent un paysage en transformation rapide qui exige du Québec une réponse structurée et ambitieuse. Cette synthèse rassemble les fils conducteurs des analyses précédentes pour tracer les contours d'un cadre québécois de gouvernance de l'IA adapté aux réalités de 2026. ## Les fondations existantes Le Québec ne part pas de zéro. Il dispose de fondations solides sur lesquelles construire. La Loi 25 modernise le cadre de protection des renseignements personnels et introduit des obligations directement pertinentes pour l'IA : transparence des décisions automatisées, évaluations des facteurs relatifs à la vie privée, notification des incidents. La Charte des droits et libertés de la personne offre un socle constitutionnel pour protéger les citoyens contre les atteintes aux droits fondamentaux causées par l'IA, discrimination, atteinte à la vie privée, violation de la dignité. La Déclaration de Montréal pour un développement responsable de l'intelligence artificielle a établi un cadre éthique de référence reconnu internationalement. L'écosystème de recherche, Mila, IVADO, OBVIA, CEIMIA, offre une expertise scientifique et éthique de premier plan. La Commission d'accès à l'information dispose de l'expertise réglementaire nécessaire pour jouer un rôle central dans la gouvernance de l'IA. ## Les principes directeurs d'un cadre québécois Un cadre québécois de gouvernance de l'IA devrait s'articuler autour de sept principes directeurs. Le premier est la proportionnalité aux risques. Les obligations de gouvernance doivent être calibrées en fonction du niveau de risque des systèmes d'IA, mesuré par leur contexte d'utilisation, leur impact potentiel sur les droits et la sécurité des personnes, et le degré d'autonomie du système. Les applications à faible risque ne devraient pas être soumises aux mêmes exigences que les systèmes à haut risque. Le deuxième est la transparence. Les citoyens ont le droit de savoir quand ils interagissent avec un système d'IA, comment ce système fonctionne dans ses grandes lignes, et comment il influence les décisions qui les concernent. La transparence n'est pas seulement une obligation technique, c'est un impératif démocratique. Le troisième est la responsabilité humaine. Quel que soit le degré d'autonomie d'un système d'IA, un être humain doit être identifiable comme responsable de son déploiement et de ses conséquences. La chaîne de responsabilité doit être claire et les mécanismes de recours accessibles. Le quatrième est l'équité. Les systèmes d'IA ne doivent pas créer ni perpétuer de discriminations. Des mécanismes d'évaluation et d'audit des biais doivent être intégrés tout au long du cycle de vie des systèmes. Le cinquième est la protection de la vie privée. L'utilisation des données personnelles par les systèmes d'IA doit respecter les principes de la Loi 25 et aller au-delà lorsque nécessaire, en tenant compte des risques spécifiques de l'IA, réidentification, inférence, profilage. Le sixième est l'inclusion. Le cadre de gouvernance doit être conçu pour être accessible à toutes les organisations, quelle que soit leur taille, et pour protéger tous les citoyens, y compris les plus vulnérables, communautés autochtones, personnes âgées, personnes en situation de handicap, communautés linguistiques minoritaires. Le septième est l'adaptabilité. La technologie de l'IA évolue à un rythme qui rend les cadres trop rigides rapidement obsolètes. Le cadre québécois doit prévoir des mécanismes de révision et d'adaptation, réglementation habilitante, bacs à sable réglementaires, consultations régulières. ## L'architecture institutionnelle Le cadre québécois nécessite une architecture institutionnelle claire. La Commission d'accès à l'information devrait jouer un rôle central, en étendant son mandat pour couvrir explicitement la gouvernance de l'IA. La CAI dispose de l'expertise en protection des données et en transparence qui est au cœur des enjeux de l'IA. Un renforcement significatif de ses ressources humaines et financières serait nécessaire. Un comité consultatif multidisciplinaire, réunissant des experts en technologie, en droit, en éthique, en sciences sociales, des représentants de l'industrie, de la société civile et des communautés autochtones, devrait conseiller le gouvernement sur l'évolution du cadre. Ce comité pourrait s'inspirer du modèle du Comité consultatif sur l'intelligence artificielle qui a contribué à l'élaboration de l'AI Act européen. Les organismes sectoriels, l'Autorité des marchés financiers pour les services financiers, le ministère de la Santé pour les systèmes de santé, le ministère de l'Éducation pour les outils éducatifs, devraient développer des lignes directrices sectorielles qui précisent l'application du cadre général à leurs domaines respectifs. ## Les mécanismes concrets Plusieurs mécanismes concrets devraient être intégrés au cadre. Un registre des systèmes d'IA à haut risque déployés au Québec, inspiré de la base de données européenne, assurerait la transparence et faciliterait la surveillance. Les organisations seraient tenues de déclarer les systèmes d'IA à haut risque qu'elles déploient, avec une description de leur fonctionnement et de leurs garanties. Des évaluations d'impact algorithmique, analogues aux évaluations des facteurs relatifs à la vie privée de la Loi 25, seraient requises avant le déploiement de systèmes d'IA à haut risque. Ces évaluations analyseraient les risques pour les droits fondamentaux, l'équité, la sécurité et la vie privée. Des mécanismes de certification volontaire permettraient aux organisations de démontrer leur conformité aux normes de gouvernance de l'IA. Ces certifications, délivrées par des organismes accrédités, faciliteraient la confiance des clients et des partenaires commerciaux. Des bacs à sable réglementaires offriraient un espace contrôlé pour tester des applications innovantes d'IA sous la supervision du régulateur, permettant de concilier innovation et protection. ## La stratégie de mise en œuvre La mise en œuvre du cadre devrait suivre une approche progressive. Une première phase, axée sur la sensibilisation et l'accompagnement, permettrait aux organisations de se familiariser avec les nouvelles exigences et de commencer leur mise en conformité. Une deuxième phase introduirait les obligations réglementaires de manière graduelle, en commençant par les systèmes à haut risque et les grandes organisations. Une troisième phase étendrait les obligations à l'ensemble des systèmes visés, avec des adaptations pour les PME. Cette approche progressive, inspirée de la mise en œuvre de la Loi 25, permettrait d'éviter les perturbations excessives tout en progressant de manière soutenue vers une gouvernance complète. ## La dimension internationale Le cadre québécois doit s'inscrire dans le contexte international. L'interopérabilité avec l'AI Act européen faciliterait les échanges commerciaux avec l'Europe. L'articulation avec un éventuel cadre fédéral canadien éviterait la duplication des obligations. Le positionnement du Québec comme modèle francophone de gouvernance de l'IA renforcerait son influence dans la francophonie et sur la scène internationale. ## Conclusion Le Québec a l'occasion historique de construire un modèle de gouvernance de l'IA qui soit à la fois protecteur des droits et des valeurs québécoises, favorable à l'innovation responsable, accessible à toutes les organisations et reconnu internationalement. Les fondations existent, l'expertise est disponible, les leçons des expériences étrangères sont là. Ce qui manque, c'est la volonté politique de passer à l'action et les ressources pour y parvenir. L'IA ne ralentira pas pour attendre que le Québec soit prêt. C'est au Québec de se préparer, maintenant, pour gouverner l'IA plutôt que d'être gouverné par elle. --- ### Vers un modèle québécois de gouvernance de l'intelligence artificielle - URL : https://gouvernance.ai/actualites/vers-modele-quebecois-gouvernance-ia - Date : 2026-02-23 - Catégorie : opinion - Auteur : florian-brobst - Mots-clés : modèle québécois, gouvernance, piliers, chantiers, perspectives, synthèse - Résumé : Synthèse de la série : le Québec dispose d'atouts exceptionnels pour construire un modèle de gouvernance de l'IA qui lui est propre. Les cinq piliers, les chantiers prioritaires et les conditions de réussite. ## Synthèse et perspectives d'avenir Au terme de cette série consacrée à la gouvernance de l'intelligence artificielle au Québec, un constat s'impose : le Québec dispose d'atouts exceptionnels pour construire un modèle de gouvernance de l'IA qui lui est propre. Un écosystème de recherche de classe mondiale, un cadre juridique en renforcement, une tradition de réflexion éthique, des valeurs sociales affirmées et une capacité éprouvée de dialogue social constituent les fondations sur lesquelles peut s'édifier ce modèle. Cet article final esquisse les contours d'un modèle québécois de gouvernance de l'IA et identifie les chantiers prioritaires pour le concrétiser. ## Les fondements du modèle québécois Le modèle québécois de gouvernance de l'IA devrait reposer sur cinq piliers fondamentaux, chacun ancré dans les valeurs et les réalités du Québec. Le premier pilier est la protection des droits fondamentaux. La Charte des droits et libertés de la personne, la Loi 25, le Code civil du Québec et l'ensemble du cadre juridique québécois fournissent un socle de protection des droits qui doit être maintenu et renforcé face aux défis posés par l'IA. Le droit à la vie privée, le droit à l'égalité, le droit à la dignité et le droit à l'information doivent constituer des limites indérogeables au déploiement de l'IA. Le deuxième pilier est l'innovation responsable. Le Québec ne peut pas se contenter d'être un consommateur de technologies développées ailleurs. Il doit soutenir activement son écosystème d'innovation en IA, tout en s'assurant que cette innovation s'inscrit dans un cadre de responsabilité. L'innovation et la responsabilité ne sont pas antinomiques : une IA développée de manière responsable est plus durable, plus digne de confiance et, ultimement, plus compétitive. Le troisième pilier est l'inclusion et l'équité. Le développement de l'IA ne doit pas bénéficier exclusivement aux grandes entreprises, aux métropoles et aux populations déjà avantagées. Le modèle québécois doit veiller à ce que les bénéfices de l'IA soient partagés équitablement, entre les régions, entre les groupes sociaux, entre les générations, et à ce que les populations vulnérables soient protégées contre les impacts négatifs potentiels. Le quatrième pilier est la participation démocratique. Les décisions relatives à la gouvernance de l'IA ne peuvent pas être laissées aux seuls experts et aux entreprises technologiques. La tradition québécoise de participation citoyenne, illustrée par la démarche de la Déclaration de Montréal, doit être poursuivie et approfondie. Les citoyens, les travailleurs, les communautés autochtones et les organisations de la société civile doivent avoir voix au chapitre dans les décisions qui affectent leur quotidien. Le cinquième pilier est la souveraineté et l'identité. Le Québec doit affirmer sa capacité à définir ses propres règles en matière d'IA, à protéger ses données et sa langue, et à promouvoir ses valeurs culturelles dans l'écosystème numérique. La souveraineté numérique n'est pas un repli sur soi, mais la condition d'une participation autonome et confiante au monde numérique globalisé. ## Les chantiers prioritaires La construction du modèle québécois de gouvernance de l'IA suppose la mise en œuvre de plusieurs chantiers prioritaires. L'adoption d'un cadre législatif spécifique à l'IA constitue le premier chantier. Le Québec devrait envisager l'adoption d'une loi sur l'intelligence artificielle qui établirait une classification des systèmes selon leur niveau de risque, des obligations proportionnées pour chaque catégorie de risque, des mécanismes d'évaluation de conformité et d'audit, des droits spécifiques pour les personnes affectées par des systèmes d'IA, et des sanctions dissuasives en cas de non-conformité. Cette loi devrait être élaborée en consultation avec l'ensemble des parties prenantes et être conçue pour s'adapter à l'évolution rapide des technologies. Le renforcement des institutions de gouvernance est un deuxième chantier essentiel. La Commission d'accès à l'information doit être dotée des ressources et des compétences nécessaires pour exercer sa mission dans le domaine de l'IA. La création d'une instance de coordination interministérielle de la gouvernance de l'IA pourrait assurer la cohérence des politiques gouvernementales. Le rôle de la Commission des droits de la personne dans la surveillance des biais algorithmiques devrait être clarifié et renforcé. Le développement des compétences est un troisième chantier transversal. La formation des professionnels de l'IA à l'éthique et à la gouvernance, la formation des juristes et des régulateurs aux enjeux techniques de l'IA, la littératie en IA pour l'ensemble des citoyens et la requalification des travailleurs affectés par l'automatisation sont autant de dimensions d'un effort de formation qui doit être systématique et soutenu dans la durée. L'investissement dans les infrastructures souveraines constitue un quatrième chantier. Le développement de centres de calcul haute performance, de plateformes de données partagées et de solutions logicielles ouvertes renforcerait la capacité du Québec à maîtriser les technologies d'IA qui structurent sa société. La promotion de l'IA en français est un cinquième chantier identitaire. L'investissement dans les corpus linguistiques, les modèles de traitement du langage naturel en français québécois et les outils numériques francophones est essentiel pour assurer que le français demeure une langue pleinement fonctionnelle à l'ère de l'IA. ## Les conditions de réussite La réalisation de ces chantiers suppose plusieurs conditions de réussite. La volonté politique est indispensable. La gouvernance de l'IA doit être portée au plus haut niveau du gouvernement, avec un engagement clair et des ressources à la hauteur des ambitions. Les déclarations de principe ne suffisent pas : des actions concrètes, mesurables et suivies sont nécessaires. La concertation des acteurs est un facteur clé. Le gouvernement, les entreprises, les institutions de recherche, les syndicats, les organismes de la société civile, les communautés autochtones et les citoyens doivent être associés à la conception et à la mise en œuvre du modèle de gouvernance. Le Québec a une tradition de dialogue social qui peut être mobilisée à cette fin. L'adaptabilité du cadre est une exigence pratique. Les technologies d'IA évoluent à un rythme que les processus législatifs et réglementaires traditionnels peinent à suivre. Le cadre de gouvernance doit intégrer des mécanismes de révision régulière, de veille technologique et d'expérimentation réglementaire (comme les « bacs à sable réglementaires ») pour rester pertinent face à l'évolution des technologies. La coopération internationale est une nécessité dans un domaine qui transcende les frontières. Le Québec doit participer activement aux forums internationaux de gouvernance de l'IA, partager ses bonnes pratiques, apprendre de l'expérience des autres juridictions et contribuer à l'émergence de normes internationales qui reflètent ses valeurs. ## Un modèle en construction Le modèle québécois de gouvernance de l'IA n'est pas un schéma achevé à appliquer mécaniquement. C'est un projet en construction permanente, qui doit s'adapter aux évolutions technologiques, aux retours d'expérience et aux attentes changeantes de la société. Les articles de cette série ont mis en lumière la complexité et la diversité des enjeux, juridiques, éthiques, techniques, sociaux, économiques, environnementaux, culturels, que la gouvernance de l'IA doit adresser. Le Québec n'est pas le seul territoire à relever ce défi, mais il dispose d'avantages distinctifs qui lui permettent de développer une approche originale et exemplaire. Son écosystème de recherche en IA, parmi les meilleurs au monde, lui donne une crédibilité scientifique et une capacité d'innovation. Ses institutions juridiques et démocratiques lui fournissent les outils nécessaires pour encadrer l'IA. Ses valeurs de solidarité, d'équité et de diversité lui offrent une boussole éthique. Sa tradition de dialogue social lui procure les méthodes pour concerter les acteurs. ## Conclusion de la série L'intelligence artificielle transforme notre monde à un rythme sans précédent. Cette transformation n'est ni intrinsèquement bonne ni intrinsèquement mauvaise : elle sera ce que nous en ferons. La gouvernance de l'IA est l'instrument par lequel les sociétés peuvent orienter cette transformation vers le bien commun, en s'assurant que les droits sont protégés, que les bénéfices sont partagés et que les risques sont maîtrisés. Le Québec a l'ambition et les moyens de devenir un modèle en matière de gouvernance de l'IA. Il lui revient maintenant de passer de l'ambition à l'action, avec la rigueur, la détermination et l'ouverture d'esprit que commande un enjeu de cette envergure. L'avenir de la société québécoise se joue, pour une part significative, dans la manière dont elle saura gouverner l'intelligence artificielle. Faisons en sorte que cette gouvernance soit à la hauteur de nos aspirations collectives. --- ### Comment structurer un comité de gouvernance de l'IA en entreprise - URL : https://gouvernance.ai/actualites/comite-gouvernance-ia-entreprise - Date : 2026-02-20 - Catégorie : opinion - Auteur : florian-brobst - Mots-clés : comité de gouvernance, entreprise, stratégie IA, organisation, bonnes pratiques, leadership - Résumé : La mise en place d'un comité de gouvernance de l'IA est devenue incontournable. Guide pratique pour constituer, mandater et faire vivre cette instance stratégique. ## Pourquoi un comité dédié ? Trop d'organisations tentent encore de gérer la gouvernance de l'IA au sein de structures existantes, comités TI, comités de conformité, ou pire, de manière ad hoc. Cette approche montre rapidement ses limites face à la transversalité des enjeux de l'IA. Un **comité de gouvernance de l'IA** dédié permet de centraliser les décisions, d'assurer une cohérence stratégique et de créer une véritable culture de responsabilité algorithmique au sein de l'organisation. ## Composition : la diversité comme force Le piège classique est de constituer un comité exclusivement technique. Or, la gouvernance de l'IA touche à la stratégie, au droit, à l'éthique, aux opérations et aux ressources humaines. Nous recommandons une composition qui inclut au minimum : - **Un membre de la direction** (VP ou C-suite) pour assurer le poids décisionnel - **Le responsable de la protection des renseignements personnels** pour l'arrimage avec la Loi 25 - **Un représentant des équipes data/IA** pour l'expertise technique - **Un juriste** sensibilisé aux enjeux du numérique - **Un représentant des opérations** qui comprend les cas d'usage terrain - **Un regard externe** (consultant, académique ou membre d'un réseau comme le Cercle) ## Mandat et responsabilités Le comité devrait avoir un mandat clair couvrant : ### Validation des projets IA Tout nouveau projet impliquant de l'IA devrait passer par une revue du comité. Cela ne signifie pas ralentir l'innovation, mais s'assurer que les risques sont identifiés et atténués en amont. ### Surveillance continue Les systèmes en production doivent faire l'objet d'un suivi régulier : performances, biais, incidents, retours utilisateurs. Le comité doit définir les indicateurs et la fréquence de reporting. ### Politique et normes internes Le comité est responsable de l'élaboration et de la mise à jour des politiques internes : charte d'utilisation de l'IA, politique d'IA générative, processus d'évaluation d'impact, etc. ### Veille réglementaire Avec l'évolution rapide du cadre réglementaire (Loi 25, AIDA, AI Act pour ceux qui opèrent en Europe), le comité doit assurer une veille active et anticiper les impacts sur l'organisation. ## Fréquence et fonctionnement Notre expérience auprès des membres du Cercle montre que les comités les plus efficaces se réunissent **mensuellement**, avec des sous-groupes de travail qui avancent entre les séances plénières. Chaque réunion devrait inclure : 1. Un tour d'horizon des nouveaux projets IA soumis 2. Un point sur les systèmes en production (indicateurs, incidents) 3. Un volet veille réglementaire 4. Un sujet de fond (formation, politique interne, audit) ## L'erreur à éviter La plus grande erreur que nous observons est de créer un comité sans lui donner de **pouvoir décisionnel réel**. Un comité purement consultatif, sans autorité pour bloquer ou conditionner un déploiement, devient rapidement une chambre d'enregistrement. Le comité doit pouvoir dire non. C'est cette capacité qui donne sa crédibilité à la gouvernance. --- ### Souveraineté numérique et intelligence artificielle au Québec - URL : https://gouvernance.ai/actualites/souverainete-numerique-ia-quebec - Date : 2026-02-19 - Catégorie : opinion - Auteur : florian-brobst - Mots-clés : souveraineté numérique, autonomie, données, infrastructure, GAFAM, indépendance technologique - Résumé : La souveraineté numérique désigne la capacité d'une société à maîtriser les technologies qui structurent sa vie. Le Québec doit naviguer entre dépendance technologique et aspiration à l'autonomie. ## Un enjeu de pouvoir à l'ère algorithmique La souveraineté numérique désigne la capacité d'un État, d'une société ou d'une organisation à maîtriser les technologies numériques qui structurent sa vie économique, sociale et politique. À l'ère de l'intelligence artificielle, cet enjeu prend une dimension nouvelle et critique. Le Québec, petit territoire francophone en Amérique du Nord, doit naviguer entre sa dépendance envers des plateformes et des technologies développées ailleurs et son aspiration légitime à garder le contrôle sur les systèmes qui affectent sa population. ## La dépendance technologique : un diagnostic lucide La réalité est sans équivoque : les technologies d'IA les plus utilisées au Québec sont développées par un petit nombre de grandes entreprises technologiques, principalement américaines. Les modèles de langage, les plateformes d'infonuagique (cloud computing), les systèmes d'exploitation, les outils de productivité et les réseaux sociaux qui intègrent de plus en plus d'IA sont contrôlés par des acteurs comme Google, Microsoft, Amazon, Meta et OpenAI. Cette dépendance a des implications concrètes en matière de gouvernance. Les données des organisations et des citoyens québécois sont stockées et traitées sur des infrastructures situées en dehors du Québec, soumises à des juridictions étrangères. Les algorithmes qui recommandent, filtrent et orientent l'information consommée par les Québécois sont conçus selon des logiques commerciales et culturelles qui ne correspondent pas nécessairement aux valeurs et aux priorités québécoises. Les décisions de conception et de politique d'utilisation de ces technologies sont prises unilatéralement par des entreprises étrangères, sans consultation des utilisateurs et des régulateurs québécois. La dépendance envers les plateformes d'infonuagique est particulièrement préoccupante. La majorité des organisations québécoises, y compris des organismes publics, utilisent des services infonuagiques pour héberger leurs données et faire fonctionner leurs applications. Le transfert des données vers des serveurs situés à l'étranger expose ces données aux lois de surveillance étrangères, notamment le CLOUD Act américain, qui permet aux autorités américaines d'accéder aux données stockées par des entreprises américaines, quel que soit le lieu de stockage. ## Les dimensions de la souveraineté numérique en IA La souveraineté numérique en matière d'IA se décline en plusieurs dimensions. La souveraineté des données concerne la maîtrise des données qui alimentent les systèmes d'IA. Cela inclut la localisation du stockage des données, le contrôle sur les conditions d'accès et d'utilisation, et la capacité de définir les règles applicables au traitement des données. Pour le Québec, la Loi 25 constitue un instrument important de souveraineté des données en imposant des obligations aux organisations qui traitent des données personnelles de Québécois. La souveraineté technologique touche à la capacité de développer, de maintenir et de contrôler les technologies d'IA. Cela suppose de disposer des compétences humaines, des infrastructures de calcul et des ressources financières nécessaires. L'écosystème montréalais de recherche en IA constitue un atout majeur, mais la dépendance envers les puces électroniques fabriquées à l'étranger et les plateformes logicielles propriétaires reste un facteur de vulnérabilité. La souveraineté réglementaire est la capacité de définir et d'appliquer des règles qui encadrent l'IA sur le territoire québécois, y compris pour les systèmes développés à l'étranger. Le cadre juridique québécois offre une base solide, mais son efficacité face à des acteurs technologiques mondiaux reste à démontrer. La souveraineté culturelle et linguistique concerne la capacité de s'assurer que les systèmes d'IA respectent et promeuvent la diversité linguistique et culturelle. Pour le Québec, cela se traduit par l'exigence de systèmes d'IA fonctionnels et de qualité en français, qui reflètent les réalités culturelles québécoises. ## Les stratégies de renforcement de la souveraineté numérique Plusieurs stratégies peuvent contribuer à renforcer la souveraineté numérique du Québec en matière d'IA. Le développement d'infrastructures de calcul souveraines est un investissement stratégique. Le Québec pourrait investir dans des centres de calcul haute performance dédiés à la recherche et au développement de l'IA, hébergés sur le territoire québécois et exploités selon les règles québécoises. Calcul Québec et l'Alliance de recherche numérique du Canada offrent déjà des infrastructures de calcul aux chercheurs, mais ces capacités doivent être renforcées pour répondre aux besoins croissants de l'IA. Le soutien aux alternatives ouvertes est une stratégie complémentaire. Les modèles d'IA ouverts (open source), les logiciels libres et les plateformes collaboratives offrent une alternative à la dépendance envers les solutions propriétaires des grandes entreprises technologiques. Le Québec pourrait encourager le développement et l'adoption de solutions ouvertes, tant dans le secteur public que dans le secteur privé. Les politiques d'approvisionnement responsable dans le secteur public peuvent servir de levier pour promouvoir la souveraineté numérique. Les marchés publics pourraient intégrer des critères de localisation des données, de transparence des algorithmes, de conformité au cadre juridique québécois et de préférence pour les solutions développées localement ou en source ouverte. La coopération internationale, notamment au sein de la francophonie, offre des opportunités de mutualiser les efforts de développement de technologies d'IA en français et de constituer un contrepoids à la domination des acteurs anglophones. La France, la Belgique, la Suisse et les pays d'Afrique francophone sont des partenaires naturels dans cette démarche. ## Les limites de la souveraineté numérique Il serait illusoire de prétendre à une souveraineté numérique absolue dans un monde interconnecté. Le Québec n'a ni les ressources ni la taille de marché nécessaires pour développer l'ensemble de ses propres technologies d'IA. La dépendance envers des technologies étrangères est en partie inévitable et en partie bénéfique, les meilleurs chercheurs et les meilleures technologies du monde contribuent à l'écosystème québécois de l'IA. L'enjeu n'est pas l'autarcie technologique, mais la maîtrise stratégique. Le Québec doit identifier les domaines où la souveraineté est critique, protection des données, services publics essentiels, infrastructures stratégiques, et concentrer ses efforts sur ces priorités. Pour les autres domaines, une dépendance maîtrisée, encadrée par des contrats rigoureux et des exigences réglementaires claires, peut constituer une approche pragmatique. ## La gouvernance de la dépendance Lorsque la dépendance envers des fournisseurs étrangers est inévitable, elle doit être gouvernée avec soin. Les organisations québécoises devraient négocier des contrats qui garantissent la localisation des données sur le territoire, la conformité au droit québécois, la portabilité des données en cas de changement de fournisseur, la transparence sur les traitements algorithmiques appliqués aux données, et des clauses de sécurité et de notification en cas d'incident. Le gouvernement du Québec devrait développer des lignes directrices pour l'approvisionnement en services d'IA auprès de fournisseurs étrangers, incluant des exigences minimales de souveraineté des données et de conformité juridique. ## Conclusion La souveraineté numérique en matière d'IA est un enjeu stratégique pour le Québec. Sans être une quête d'autarcie, elle vise à garantir que le Québec conserve la maîtrise des technologies et des données qui façonnent sa société. L'investissement dans les infrastructures, les compétences, les solutions ouvertes et la coopération internationale sont les piliers d'une stratégie de souveraineté numérique réaliste et ambitieuse. Le Québec a les atouts pour relever ce défi ; il lui revient de les mobiliser avec vision et détermination. --- ### L'IA et les PME québécoises : démocratiser l'accès et la gouvernance - URL : https://gouvernance.ai/actualites/ia-pme-quebecoises - Date : 2026-02-17 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : PME, démocratisation, accompagnement, Loi 25, CCTT, Scale AI, conformité - Résumé : Les PME représentent 99% des entreprises québécoises mais sont oubliées de la gouvernance de l'IA. Fossé numérique, besoins spécifiques et pistes pour démocratiser l'accès à une IA responsable. ## Le tissu économique québécois face à l'IA Les petites et moyennes entreprises (PME) constituent l'épine dorsale de l'économie québécoise. Elles représentent plus de 99 % des entreprises de la province et emploient la grande majorité de la main-d'œuvre du secteur privé. Pourtant, lorsqu'on parle de gouvernance de l'IA, le discours est souvent centré sur les grandes entreprises technologiques, les gouvernements et les laboratoires de recherche. Les PME, celles qui sont à la fois les plus vulnérables aux disruptions de l'IA et les plus susceptibles de bénéficier de son adoption judicieuse, sont trop souvent oubliées dans cette conversation. ## Le fossé numérique de l'IA Un fossé significatif s'est creusé entre les grandes organisations qui disposent des ressources pour adopter l'IA et les PME qui peinent à franchir le pas. Ce fossé ne concerne pas seulement l'adoption de la technologie, il touche aussi la capacité à comprendre et à se conformer aux obligations de gouvernance qui accompagnent cette adoption. Les obstacles à l'adoption de l'IA par les PME sont multiples et interconnectés. Le coût d'entrée inclut non seulement l'acquisition des outils, mais aussi la préparation des données, l'intégration avec les systèmes existants et la formation du personnel. Le manque de compétences internes en IA oblige les PME à recourir à des consultants externes, dont les services sont coûteux. L'incertitude sur le retour sur investissement freine les décideurs qui ne peuvent se permettre d'investir dans des projets dont les bénéfices sont incertains. La complexité perçue de la technologie crée une barrière psychologique qui dissuade l'exploration. Le fossé de la gouvernance est tout aussi préoccupant. Les cadres de gouvernance de l'IA, qu'ils soient réglementaires, normatifs ou volontaires, sont généralement conçus en fonction des capacités des grandes organisations. Les obligations de documentation, d'évaluation d'impact, de surveillance et de transparence qui sont gérables pour une entreprise de 5 000 employés avec une équipe juridique et une direction des données peuvent être écrasantes pour une PME de 20 personnes. ## Les besoins spécifiques des PME Les PME ont des besoins distincts en matière d'IA et de gouvernance. En matière d'adoption, les PME ont besoin de solutions d'IA prêtes à l'emploi, intégrées dans des outils qu'elles utilisent déjà, logiciels de comptabilité, systèmes de gestion de la relation client, plateformes de commerce électronique. Les solutions qui exigent un développement sur mesure sont hors de portée pour la majorité d'entre elles. En matière de gouvernance, les PME ont besoin de cadres simplifiés et proportionnés. Un guide de bonnes pratiques de quelques pages, accompagné d'outils pratiques, listes de vérification, modèles de politiques, grilles d'évaluation, est plus utile qu'un référentiel exhaustif de 200 pages conçu pour les grandes organisations. En matière de soutien, les PME ont besoin d'accompagnement humain, des conseillers qui comprennent leur réalité et peuvent les guider dans leur démarche, plutôt que de plateformes en libre-service qui supposent des compétences qu'elles n'ont pas. ## Les cas d'usage prioritaires Les PME québécoises qui adoptent l'IA avec succès se concentrent généralement sur un nombre limité de cas d'usage à forte valeur ajoutée. L'automatisation des tâches administratives, traitement des factures, gestion de la paie, suivi des inventaires, est un point d'entrée naturel qui libère du temps pour des activités à plus forte valeur ajoutée. Le service client assisté par l'IA, agents conversationnels, réponses automatisées aux courriels, recommandations personnalisées, permet aux PME de maintenir un niveau de service compétitif malgré des effectifs limités. L'analyse des données commerciales, prévision de la demande, segmentation de la clientèle, optimisation des prix, aide les PME à prendre des décisions plus éclairées. La détection d'anomalies, fraudes, erreurs comptables, problèmes de qualité, renforce la gestion des risques. ## Le rôle des organismes de soutien L'écosystème québécois de soutien aux entreprises a un rôle crucial à jouer dans la démocratisation de l'IA et de sa gouvernance. Investissement Québec, le Réseau des CCTT (centres collégiaux de transfert de technologie), les chambres de commerce, les associations sectorielles et les incubateurs technologiques sont autant de relais potentiels. Le Programme d'aide à la recherche industrielle (PARI) du Conseil national de recherches du Canada offre un financement et un accompagnement technique aux PME pour des projets d'innovation, y compris ceux qui impliquent l'IA. Le programme IA pour les PME de SCALE AI soutient spécifiquement l'adoption de l'IA dans les chaînes d'approvisionnement. Ces programmes devraient systématiquement intégrer une composante de gouvernance dans l'accompagnement qu'ils offrent. Aider une PME à adopter l'IA sans l'accompagner sur les enjeux de gouvernance, protection des données, transparence, équité, c'est l'exposer à des risques qu'elle ne mesure pas. ## La conformité à la Loi 25 pour les PME La Loi 25 s'applique à toutes les organisations qui collectent, utilisent ou communiquent des renseignements personnels au Québec, quelle que soit leur taille. Les PME qui déploient des systèmes d'IA traitant des données personnelles doivent se conformer à l'ensemble des obligations de la loi, y compris la désignation d'un responsable de la protection des renseignements personnels, la réalisation d'évaluations des facteurs relatifs à la vie privée, la notification des incidents de confidentialité, la transparence sur l'utilisation des données et le consentement éclairé. La CAI a reconnu la nécessité de proposer des guides et des outils adaptés aux petites organisations. Des modèles simplifiés de politiques de confidentialité, des guides pratiques sur les obligations de la Loi 25 et des sessions d'information en ligne sont disponibles. Mais un effort supplémentaire est nécessaire pour s'assurer que ces ressources sont connues, accessibles et utilisées par les PME. ## Recommandations Le Québec devrait développer un cadre de gouvernance de l'IA spécifiquement adapté aux PME, avec des obligations proportionnées à leur taille et à leurs risques. Des programmes d'accompagnement dédiés, combinant aide financière et conseil technique, devraient soutenir les PME dans leur adoption responsable de l'IA. Un réseau de conseillers en IA pour les PME, formés aux enjeux de gouvernance, pourrait être créé en partenariat avec les CCTT et les chambres de commerce. Des ressources en libre accès, guides, outils, modèles, en français et adaptées au contexte québécois devraient être développées et diffusées largement. ## Conclusion La gouvernance de l'IA au Québec ne sera véritablement démocratique que si elle est accessible aux organisations de toutes tailles. Les PME, qui constituent le cœur de l'économie québécoise, ne peuvent être laissées pour compte dans la transition vers l'IA. Un cadre de gouvernance qui les accompagne plutôt qu'il ne les accable, qui les protège plutôt qu'il ne les décourage, et qui les outille plutôt qu'il ne les isole est la condition d'une adoption de l'IA qui bénéficie à l'ensemble de la société québécoise. --- ### L'impact environnemental de l'intelligence artificielle au Québec - URL : https://gouvernance.ai/actualites/impact-environnemental-ia-quebec - Date : 2026-02-16 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : environnement, énergie, empreinte carbone, centres de données, hydroélectricité, développement durable - Résumé : L'IA consomme d'énormes quantités d'énergie et génère une empreinte carbone significative. Pour le Québec, engagé dans la transition énergétique, la gouvernance environnementale de l'IA est un enjeu incontournable. ## L'empreinte écologique cachée de l'IA L'intelligence artificielle est souvent présentée comme une technologie immatérielle, évoluant dans le « nuage » numérique. Cette perception masque une réalité physique considérable : les systèmes d'IA consomment d'énormes quantités d'énergie, nécessitent des infrastructures matérielles lourdes et génèrent une empreinte carbone significative. Pour le Québec, engagé dans la lutte contre les changements climatiques et la transition énergétique, la gouvernance de l'impact environnemental de l'IA est un enjeu incontournable. ## La consommation énergétique de l'IA L'entraînement des grands modèles d'IA est un processus extrêmement énergivore. Un seul cycle d'entraînement d'un grand modèle de langage peut consommer autant d'électricité que des centaines de foyers pendant une année. Et l'entraînement n'est que la partie la plus visible de la consommation : l'inférence, c'est-à-dire l'utilisation quotidienne des modèles pour répondre aux requêtes des utilisateurs, représente une consommation cumulative qui peut dépasser celle de l'entraînement. Les centres de données, qui hébergent les serveurs nécessaires au fonctionnement de l'IA, sont de grands consommateurs d'électricité et d'eau de refroidissement. Leur expansion rapide, alimentée par la demande croissante en IA, exerce une pression sur les réseaux électriques et les ressources en eau. Au Québec, la demande de nouveaux centres de données a explosé ces dernières années, attirée par les tarifs compétitifs de l'hydroélectricité et le climat froid qui réduit les besoins de refroidissement. ## Le Québec : un avantage hydroélectrique et ses limites Le Québec dispose d'un avantage significatif en matière d'empreinte carbone de l'IA : son électricité provient à plus de 95 % de sources renouvelables, principalement l'hydroélectricité. Cet atout fait du Québec l'une des juridictions les plus propres au monde pour l'exploitation de centres de données et, par extension, pour le fonctionnement de systèmes d'IA. Toutefois, cet avantage ne dispense pas d'une réflexion approfondie sur la gouvernance environnementale de l'IA. La capacité de production d'Hydro-Québec, bien que considérable, n'est pas illimitée. La demande croissante des centres de données entre en concurrence avec d'autres besoins en électricité, l'électrification des transports, le chauffage, l'industrie manufacturière. Hydro-Québec a d'ailleurs dû réexaminer sa politique d'allocation de puissance face à l'afflux de demandes. La construction de nouveaux barrages hydroélectriques a des impacts environnementaux propres : inondation de territoires, perturbation des écosystèmes aquatiques, émissions de méthane par les réservoirs et impacts sur les communautés autochtones dont les territoires ancestraux sont affectés. L'expansion de la capacité de production hydroélectrique pour répondre à la demande de l'IA doit être évaluée à l'aune de ces impacts. ## L'empreinte matérielle L'empreinte environnementale de l'IA ne se limite pas à la consommation d'énergie. La fabrication des puces électroniques spécialisées (GPU, TPU) nécessaires au fonctionnement de l'IA requiert des terres rares et des métaux dont l'extraction est souvent associée à des dommages environnementaux et sociaux considérables. Le cycle de vie des équipements informatiques, de la fabrication à la mise au rebut, génère des déchets électroniques qui posent des défis de gestion significatifs. La consommation d'eau est un autre enjeu environnemental important. Les centres de données utilisent d'importants volumes d'eau pour le refroidissement de leurs équipements. Bien que le climat nordique du Québec réduise ces besoins, l'expansion des centres de données dans la région de Montréal et ailleurs au Québec soulève des questions de gestion durable de la ressource en eau. ## L'IA au service de l'environnement Il serait incomplet de ne considérer que les impacts négatifs de l'IA sur l'environnement. L'IA peut aussi contribuer positivement à la transition écologique et à la lutte contre les changements climatiques. L'optimisation énergétique des bâtiments, des réseaux de transport et des processus industriels grâce à l'IA peut générer des économies d'énergie significatives. La modélisation climatique et la prévision des événements météorologiques extrêmes bénéficient des capacités de traitement de l'IA. La surveillance des écosystèmes, la détection de la déforestation et le suivi de la biodiversité sont facilités par l'analyse automatisée d'images satellites et de données environnementales. Au Québec, des projets de recherche utilisent l'IA pour optimiser la gestion du réseau électrique d'Hydro-Québec, pour surveiller la qualité des eaux et des forêts, pour améliorer la planification des transports en commun et pour soutenir la recherche sur les matériaux durables. ## La gouvernance de l'empreinte environnementale de l'IA La gouvernance environnementale de l'IA au Québec devrait s'articuler autour de plusieurs axes. La transparence sur l'empreinte environnementale est un premier impératif. Les organisations qui développent et déploient des systèmes d'IA devraient mesurer et publier l'empreinte carbone, la consommation énergétique et la consommation d'eau associées à leurs systèmes. Des méthodologies standardisées de mesure de l'empreinte environnementale de l'IA sont en cours de développement au niveau international et devraient être adoptées au Québec. L'éco-conception des systèmes d'IA vise à réduire leur empreinte environnementale dès la phase de conception. Cela inclut le choix de modèles plus efficaces sur le plan énergétique (par exemple, les modèles compacts ou distillés plutôt que les modèles géants), l'optimisation du code et des infrastructures, et la réduction des données superflues. La politique énergétique doit intégrer la demande des centres de données dans la planification de la capacité de production et de distribution d'électricité. Hydro-Québec et le gouvernement du Québec doivent arbitrer de manière transparente entre les différents usages de l'électricité, en privilégiant ceux qui contribuent le plus au bien-être collectif et à la transition écologique. La réglementation des centres de données pourrait inclure des exigences d'efficacité énergétique, de récupération de la chaleur résiduelle, de gestion durable de l'eau et de recyclage des équipements. Des incitatifs fiscaux pourraient encourager les pratiques les plus vertueuses. ## L'évaluation coût-bénéfice environnementale Chaque projet d'IA devrait faire l'objet d'une évaluation coût-bénéfice environnementale, mettant en balance les gains attendus, économiques, sociaux, environnementaux, et l'empreinte écologique du système. Un système d'IA qui optimise la consommation énergétique d'un réseau de bâtiments peut générer des économies d'énergie supérieures à sa propre consommation. En revanche, un système d'IA qui génère du contenu publicitaire additionnel peut avoir un bilan environnemental net négatif. Cette approche coût-bénéfice devrait être intégrée dans les évaluations d'impact algorithmique et dans les processus de décision des organisations québécoises. ## Recommandations Le Québec devrait intégrer l'empreinte environnementale dans les critères d'évaluation des projets d'IA soutenus par des fonds publics, développer des normes d'efficacité énergétique pour les centres de données, soutenir la recherche en IA verte et en éco-conception de systèmes d'IA, exiger la transparence sur l'empreinte environnementale des systèmes d'IA dans les marchés publics, encourager la récupération de chaleur résiduelle des centres de données pour le chauffage urbain, et établir une politique claire d'allocation de la capacité hydroélectrique qui arbitre entre les besoins en électricité de l'IA et les autres priorités sociales et économiques. ## Conclusion L'impact environnemental de l'IA est un angle mort de la gouvernance qui doit être comblé. Le Québec, grâce à son hydroélectricité, dispose d'un avantage indéniable, mais cet avantage ne justifie pas une consommation énergétique illimitée. Une gouvernance environnementale rigoureuse de l'IA est nécessaire pour s'assurer que le développement technologique contribue à la transition écologique plutôt qu'il ne la compromette. --- ### Gouvernance de l'IA en santé : pourquoi le secteur ne peut plus attendre - URL : https://gouvernance.ai/actualites/gouvernance-ia-sante - Date : 2026-02-15 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : santé, IA en santé, gouvernance IA, éthique, données de santé, Québec, MSSS - Résumé : Le déploiement de l'IA dans le système de santé québécois s'accélère. Les enjeux éthiques et réglementaires spécifiques au secteur exigent une gouvernance adaptée. ## L'IA transforme déjà le réseau de la santé L'intelligence artificielle n'est plus un concept théorique dans le milieu de la santé québécois. Des systèmes d'aide au diagnostic en radiologie aux algorithmes de triage dans les urgences, en passant par les outils de prédiction des réadmissions hospitalières, **l'IA est déjà présente dans nos établissements de santé**. Pourtant, la gouvernance de ces systèmes reste largement insuffisante. Une enquête récente menée auprès de 45 établissements du réseau a révélé que **moins de 20 %** disposent d'un cadre formel de gouvernance de l'IA. ## Des enjeux spécifiques au secteur La santé présente des caractéristiques qui rendent la gouvernance de l'IA particulièrement complexe : ### Sensibilité extrême des données Les données de santé sont parmi les plus sensibles qui existent. Leur utilisation pour entraîner des modèles d'IA soulève des questions fondamentales de consentement, de confidentialité et de propriété intellectuelle. La **Loi 25** impose des obligations strictes, mais son application aux contextes d'IA en santé reste floue. ### Risques vitaux Contrairement à d'autres secteurs, une erreur algorithmique en santé peut avoir des conséquences directes sur la vie des patients. Un système de diagnostic qui produit un faux négatif, un algorithme de dosage qui se trompe, les enjeux sont littéralement vitaux. ### Équité d'accès Les biais algorithmiques dans les systèmes de santé peuvent amplifier les inégalités existantes. Des études ont montré que certains algorithmes de triage sous-évaluent systématiquement les besoins de certaines populations, perpétuant des disparités de soins. ## Vers un cadre de gouvernance adapté Le Cercle travaille actuellement avec plusieurs établissements du réseau pour développer un **cadre de gouvernance spécifique au secteur de la santé**. Ce cadre repose sur cinq principes directeurs : 1. **Primauté du patient** : toute décision algorithmique doit pouvoir être révisée par un professionnel de santé 2. **Transparence clinique** : les cliniciens doivent comprendre les recommandations de l'IA 3. **Validation continue** : les performances des systèmes doivent être surveillées en temps réel 4. **Équité vérifiable** : des audits réguliers doivent mesurer les biais potentiels 5. **Traçabilité complète** : chaque décision assistée par l'IA doit être documentée ## Un appel à l'action Le MSSS a récemment signalé son intention de publier des lignes directrices sur l'utilisation de l'IA dans le réseau. C'est une avancée positive, mais les établissements ne doivent pas attendre ces directives pour agir. Les outils existent déjà : registres de systèmes IA, grilles d'évaluation des risques, modèles de politiques internes. Le Cercle met à disposition de ses membres un ensemble de ressources spécialement adaptées au contexte de la santé. --- ### Littératie en IA pour les citoyens québécois : un impératif démocratique - URL : https://gouvernance.ai/actualites/litteratie-ia-citoyens-quebec - Date : 2026-02-13 - Catégorie : opinion - Auteur : florian-brobst - Mots-clés : littératie, éducation, citoyenneté, curriculum, formation, AI Act, décideurs publics - Résumé : La littératie en IA est un impératif démocratique. Intégration dans le curriculum scolaire, formation continue, éducation des décideurs : comment outiller les citoyens québécois face à l'IA. ## Au-delà de la compétence technique La littératie en intelligence artificielle, la capacité des citoyens à comprendre, évaluer et interagir de manière éclairée avec les systèmes d'IA, est devenue un enjeu démocratique fondamental. L'AI Act européen l'a reconnu en imposant, depuis février 2025, des obligations de littératie en IA aux organisations qui déploient ou utilisent des systèmes d'IA. Cette exigence européenne reflète un constat simple : dans un monde où l'IA influence les décisions qui touchent chaque aspect de la vie quotidienne, des citoyens qui ne comprennent pas cette technologie sont des citoyens vulnérables. ## Qu'est-ce que la littératie en IA ? La littératie en IA ne se résume pas à la compétence technique. Elle ne requiert pas que chaque citoyen comprenne les mathématiques de l'apprentissage profond ou sache programmer un réseau de neurones. Elle implique plutôt une compréhension fonctionnelle qui permet de reconnaître quand on interagit avec un système d'IA, de comprendre les capacités et les limites de ces systèmes, d'évaluer de manière critique les résultats produits par l'IA, de prendre des décisions éclairées face aux recommandations algorithmiques, de comprendre les implications de l'IA pour ses droits et sa vie privée, et de participer de manière informée au débat public sur la gouvernance de l'IA. Cette définition fonctionnelle est essentielle. L'objectif n'est pas de former une société de techniciens, mais une société de citoyens capables d'exercer leur jugement critique dans un environnement de plus en plus médié par l'IA. ## L'état de la littératie en IA au Québec Le Québec ne dispose pas de données systématiques sur le niveau de littératie en IA de sa population. Cependant, plusieurs indicateurs suggèrent que la situation est préoccupante. La littératie numérique de base, la capacité à utiliser les technologies de l'information de manière compétente, demeure inégale, avec des écarts significatifs selon l'âge, le niveau de scolarité, la région et le statut socio-économique. Si la littératie numérique est une condition préalable à la littératie en IA, elle n'est pas suffisante. De nombreux utilisateurs compétents avec les outils numériques n'ont qu'une compréhension vague de ce qu'est l'IA, de comment elle fonctionne et des implications de son utilisation. La perception de l'IA dans la population oscille entre la fascination, alimentée par le marketing des entreprises technologiques, et la crainte, nourrie par les représentations dystopiques dans la culture populaire. Ni l'une ni l'autre de ces attitudes ne constitue une base saine pour un engagement citoyen éclairé. ## L'éducation formelle : intégrer l'IA dans le curriculum Le système éducatif québécois a un rôle central à jouer dans le développement de la littératie en IA. Cette intégration doit se faire à tous les niveaux. Au primaire, l'initiation à la pensée algorithmique et aux concepts de base de l'IA peut se faire de manière ludique et concrète, à travers des activités qui montrent comment les machines « apprennent », comment les recommandations sont générées et comment les données sont utilisées. Des programmes pédagogiques adaptés existent déjà et peuvent être intégrés dans les cours de mathématiques, de sciences et d'éthique. Au secondaire, la littératie en IA devrait devenir plus structurée, avec des modules qui couvrent les fondements de l'IA, apprentissage automatique, données, algorithmes, les enjeux éthiques et sociaux de l'IA, l'esprit critique face aux contenus générés par l'IA et la protection de la vie privée à l'ère numérique. Le programme d'éthique et culture religieuse, en cours de transformation, et le cours de culture et citoyenneté québécoise offrent des cadres naturels pour intégrer ces apprentissages. Au postsecondaire, les programmes de toutes les disciplines, pas seulement l'informatique, devraient intégrer une composante de littératie en IA adaptée à leur domaine. Les futurs médecins, avocats, gestionnaires, enseignants et travailleurs sociaux utiliseront tous l'IA dans leur pratique professionnelle et doivent y être préparés. La formation des enseignants est un préalable critique. Les enseignants eux-mêmes doivent être formés aux enjeux de l'IA pour pouvoir transmettre cette compréhension à leurs élèves. Des programmes de développement professionnel spécifiques, développés en partenariat avec des experts en IA et en pédagogie, sont nécessaires. ## L'éducation continue et la formation professionnelle La littératie en IA ne peut reposer uniquement sur l'éducation formelle. La majorité de la population active actuelle n'a pas été exposée à ces enjeux durant sa scolarité. Des programmes de formation continue sont nécessaires pour les travailleurs, les gestionnaires et les citoyens de tous âges. Les employeurs ont un rôle important à jouer en offrant des formations sur l'IA adaptées à leur secteur d'activité. Les organismes communautaires, les bibliothèques publiques et les centres de formation peuvent servir de relais pour atteindre les populations les plus éloignées de la technologie. Les médias québécois ont la responsabilité de couvrir les enjeux de l'IA de manière informée et accessible, en évitant tant le sensationnalisme que la promotion non critique. ## La littératie en IA pour les décideurs publics Les élus, les hauts fonctionnaires et les gestionnaires publics qui prennent des décisions sur l'adoption et la gouvernance de l'IA doivent eux-mêmes posséder un niveau adéquat de littératie en IA. Des programmes de formation spécifiques pour les décideurs publics, qui couvrent non seulement les aspects techniques mais aussi les implications juridiques, éthiques et sociales de l'IA, sont indispensables pour assurer une gouvernance éclairée. L'Assemblée nationale du Québec, les ministères et les organismes publics devraient investir dans la formation de leur personnel aux enjeux de l'IA. Le Bureau de la transformation numérique gouvernementale pourrait jouer un rôle de coordination dans cet effort. ## Les outils et les ressources Le développement de la littératie en IA au Québec nécessite la création d'outils et de ressources en français, adaptés au contexte québécois. Les ressources développées en anglais ou dans d'autres contextes culturels ne sont pas toujours directement transposables. L'Observatoire international sur les impacts sociétaux de l'IA et du numérique (OBVIA), basé à l'Université Laval, est un acteur clé dans la production de connaissances accessibles sur les enjeux sociaux de l'IA. Ses travaux de vulgarisation et de transfert de connaissances contribuent directement à la littératie collective. ## Recommandations Le Québec devrait intégrer la littératie en IA dans le curriculum scolaire à tous les niveaux dès que possible, investir dans la formation des enseignants aux enjeux de l'IA, développer des ressources éducatives en français adaptées au contexte québécois, soutenir les initiatives de formation continue et d'éducation populaire sur l'IA, et exiger que les décideurs publics responsables de la gouvernance de l'IA possèdent un niveau adéquat de littératie en la matière. ## Conclusion La littératie en IA n'est pas un luxe, c'est une condition de la citoyenneté démocratique au XXIe siècle. Un citoyen qui ne comprend pas comment l'IA influence sa vie ne peut ni exercer pleinement ses droits, ni participer de manière éclairée au débat public sur la gouvernance de cette technologie. Le Québec, en investissant massivement dans la littératie en IA, ne fait pas que préparer sa population au marché du travail de demain, il protège sa démocratie. --- ### L'IA responsable : cadres, normes et certifications pour les organisations québécoises - URL : https://gouvernance.ai/actualites/ia-responsable-cadres-certifications - Date : 2026-02-11 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : IA responsable, ISO 42001, OCDE, certification, normes, audit, conformité - Résumé : Des principes de l'OCDE à la certification ISO 42001, les cadres d'IA responsable se multiplient. Guide des outils concrets à la disposition des organisations québécoises. ## De la théorie à la pratique de l'IA responsable L'intelligence artificielle responsable n'est plus un concept abstrait réservé aux cercles académiques. Elle est devenue une exigence opérationnelle pour les organisations qui souhaitent déployer l'IA de manière durable, conforme et digne de confiance. Au Québec comme ailleurs, des cadres de référence, des normes techniques et des mécanismes de certification se développent pour aider les organisations à concrétiser leurs engagements en matière d'IA responsable. Cet article passe en revue les principaux outils à la disposition des décideurs québécois. ## Les cadres de référence internationaux Plusieurs cadres de référence internationaux structurent la réflexion et les pratiques en matière d'IA responsable. Les Principes de l'OCDE sur l'intelligence artificielle, adoptés en 2019, constituent une référence majeure. Ils énoncent cinq principes : croissance inclusive, développement durable et bien-être ; valeurs centrées sur l'humain et équité ; transparence et explicabilité ; robustesse, sécurité et fiabilité ; responsabilité. Ces principes ont été endossés par le Canada et le Québec et servent de fondement à de nombreuses initiatives de gouvernance. Les recommandations de l'UNESCO sur l'éthique de l'intelligence artificielle, adoptées en 2021, offrent un cadre normatif plus détaillé, couvrant les valeurs, les principes, les domaines d'action politique et les mécanismes de suivi. Elles mettent particulièrement l'accent sur l'équité, la diversité culturelle et linguistique et la protection de l'environnement. Le cadre de gestion des risques de l'IA du NIST (AI Risk Management Framework) offre une approche pratique et volontaire pour identifier, évaluer et gérer les risques associés aux systèmes d'IA. Ce cadre est largement utilisé dans le secteur privé nord-américain et constitue une référence utile pour les entreprises québécoises. ## Les normes techniques en développement L'Organisation internationale de normalisation (ISO) et la Commission électrotechnique internationale (IEC) ont lancé un programme de normalisation ambitieux en matière d'IA, au sein du comité technique conjoint ISO/IEC JTC 1/SC 42. La norme ISO/IEC 42001 sur les systèmes de management de l'intelligence artificielle est particulièrement significative. Elle définit les exigences pour l'établissement, la mise en œuvre, le maintien et l'amélioration continue d'un système de management de l'IA au sein d'une organisation. Calquée sur la structure des systèmes de management ISO (comme ISO 9001 pour la qualité et ISO 27001 pour la sécurité de l'information), cette norme offre un cadre reconnu internationalement pour la gouvernance organisationnelle de l'IA. D'autres normes ISO/IEC en cours de développement ou récemment publiées couvrent des aspects spécifiques de l'IA responsable : la gestion des biais (ISO/IEC TR 24027), la transparence (ISO/IEC TR 24028), l'évaluation de la robustesse des réseaux de neurones (ISO/IEC TR 24029), l'audit des systèmes d'IA (ISO/IEC 42006) et la gouvernance des implications de l'IA (ISO/IEC 38507). Le Bureau de normalisation du Québec (BNQ) et le Conseil canadien des normes (CCN) participent à ces travaux internationaux et contribuent à l'élaboration de normes nationales complémentaires. ## Les cadres québécois et canadiens Au niveau canadien, le Conseil de recherches en sciences naturelles et en génie du Canada (CRSNG) et d'autres organismes de financement ont intégré des exigences éthiques dans leurs programmes de soutien à la recherche en IA. Le Cadre d'évaluation de l'impact algorithmique (EIA) du gouvernement fédéral fournit un outil structuré pour évaluer les impacts des systèmes d'IA déployés dans l'administration fédérale. Au Québec, la Déclaration de Montréal pour un développement responsable de l'IA fournit un cadre éthique de référence qui peut servir de fondement aux politiques organisationnelles d'IA responsable. Les cadres de référence développés par le gouvernement du Québec pour l'utilisation de l'IA dans l'administration publique offrent des orientations pratiques pour le secteur public. ## Les mécanismes de certification et d'audit La certification des systèmes d'IA est un domaine en émergence. Plusieurs initiatives visent à établir des mécanismes permettant de vérifier et d'attester la conformité des systèmes d'IA à des normes de responsabilité. La certification ISO/IEC 42001 est disponible par des organismes de certification accrédités. Elle atteste qu'une organisation a mis en place un système de management de l'IA conforme aux exigences de la norme. Pour les organisations québécoises, cette certification peut constituer un avantage compétitif et un signal de confiance envers les clients et les partenaires. Les audits algorithmiques indépendants se développent comme une pratique complémentaire. Des firmes spécialisées offrent des services d'évaluation des systèmes d'IA portant sur l'équité, la transparence, la robustesse et la conformité réglementaire. Ces audits peuvent être menés à la demande de l'organisation elle-même, de ses clients ou d'autorités de surveillance. ## La mise en œuvre dans les organisations québécoises Pour les organisations québécoises, la mise en œuvre d'un programme d'IA responsable repose sur plusieurs éléments clés. L'engagement de la direction est un prérequis. L'IA responsable doit être portée par le plus haut niveau de l'organisation, intégrée dans la stratégie d'entreprise et soutenue par des ressources adéquates. Un discours de façade sans engagement réel est contre-productif et expose l'organisation à des accusations d'« ethics washing ». La gouvernance organisationnelle implique la désignation de responsables, la création de comités d'éthique ou de gouvernance de l'IA, et l'établissement de processus décisionnels clairs pour l'évaluation et l'approbation des projets d'IA. L'évaluation des risques, à travers des processus structurés d'analyse d'impact, EFVP, évaluation d'impact algorithmique, analyse de risques, permet d'identifier les enjeux et de mettre en place des mesures d'atténuation avant le déploiement des systèmes. La documentation et la traçabilité sont essentielles pour assurer la reddition de comptes. Les organisations doivent documenter les choix de conception, les données utilisées, les évaluations réalisées et les décisions prises tout au long du cycle de vie des systèmes d'IA. La formation et la sensibilisation du personnel, des développeurs aux dirigeants en passant par les utilisateurs, sont indispensables pour créer une culture organisationnelle de responsabilité en matière d'IA. Le suivi et l'amélioration continue reconnaissent que l'IA responsable est un processus dynamique. Les systèmes d'IA doivent être surveillés en continu pour détecter les dérives de performance, les biais émergents et les impacts imprévus. ## Les défis de mise en œuvre La mise en œuvre de l'IA responsable se heurte à plusieurs obstacles pratiques. Le coût de la conformité peut être prohibitif pour les PME, qui constituent l'essentiel du tissu économique québécois. La pénurie de professionnels compétents en éthique de l'IA et en audit algorithmique freine le développement de l'expertise interne. La multiplication des cadres et des normes crée une complexité que les organisations peinent à naviguer. Des programmes de soutien ciblés, accompagnement technique, subventions, mutualisation des coûts, sont nécessaires pour rendre l'IA responsable accessible à l'ensemble des organisations québécoises, pas seulement aux grandes entreprises disposant de ressources abondantes. ## Conclusion Les cadres, normes et certifications en matière d'IA responsable offrent aux organisations québécoises des outils concrets pour traduire les principes éthiques en pratiques opérationnelles. L'adoption de ces outils n'est plus optionnelle dans un contexte où les exigences réglementaires se renforcent, où les attentes des parties prenantes augmentent et où la confiance est devenue un facteur de compétitivité. Les organisations qui investissent dès maintenant dans l'IA responsable se positionnent pour un succès durable dans un environnement en rapide évolution. --- ### AIDA : le Canada se dote enfin d'un cadre législatif pour l'intelligence artificielle - URL : https://gouvernance.ai/actualites/aida-projet-loi-canada - Date : 2026-02-10 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : AIDA, projet de loi C-27, Canada, réglementation IA, intelligence artificielle, conformité - Résumé : Le projet de loi C-27 et sa composante AIDA (Artificial Intelligence and Data Act) progressent au Parlement. Décryptage des obligations qui attendent les organisations canadiennes. ## Un cadre attendu depuis longtemps Alors que l'Union européenne a déjà mis en application son AI Act, le Canada avance à son rythme avec le **projet de loi C-27**, dont la **Partie 3, Artificial Intelligence and Data Act (AIDA)**, constitue la première tentative de légiférer spécifiquement sur l'intelligence artificielle au niveau fédéral. Ce texte, qui a franchi de nouvelles étapes au Parlement en début d'année, vise à encadrer le développement et le déploiement des systèmes d'IA à « incidence élevée » tout en favorisant l'innovation responsable. ## Les grandes lignes de l'AIDA Le projet de loi repose sur plusieurs piliers fondamentaux : - **Classification des systèmes à incidence élevée** : les organisations devront identifier et catégoriser leurs systèmes d'IA selon leur niveau de risque potentiel sur la santé, la sécurité et les droits fondamentaux des Canadiens. - **Obligations de transparence** : les utilisateurs devront être informés lorsqu'ils interagissent avec un système d'IA, et les organisations devront documenter les décisions prises par ces systèmes. - **Évaluations d'impact** : avant le déploiement d'un système à incidence élevée, une évaluation formelle des risques sera exigée. - **Sanctions significatives** : des amendes pouvant atteindre **10 millions de dollars** ou **3 % du chiffre d'affaires mondial** sont prévues pour les infractions les plus graves. ## Ce que cela signifie pour les organisations québécoises Les entreprises québécoises se retrouvent dans une position particulière : elles devront se conformer simultanément à la **Loi 25** au niveau provincial et à l'**AIDA** au niveau fédéral. Cette superposition réglementaire exige une approche intégrée de la gouvernance. Au Cercle, nous recommandons aux organisations de commencer dès maintenant à : 1. **Cartographier** l'ensemble de leurs systèmes d'IA en production et en développement 2. **Évaluer** le niveau de risque de chaque système selon les critères anticipés de l'AIDA 3. **Documenter** les processus de prise de décision algorithmique 4. **Former** les équipes aux exigences de conformité à venir ## Un calendrier à surveiller Bien que le texte final puisse encore évoluer, les organisations prudentes ne devraient pas attendre son adoption définitive pour agir. Les cadres de gouvernance mis en place aujourd'hui, registre des systèmes IA, évaluations d'impact, politiques internes, seront directement réutilisables pour se conformer à la future loi. Le Cercle de Gouvernance de l'IA continuera de suivre l'évolution de ce projet de loi et d'accompagner ses membres dans leur préparation. --- ### L'IA dans la justice québécoise : promesses et garde-fous - URL : https://gouvernance.ai/actualites/ia-justice-quebecoise - Date : 2026-02-09 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : justice, tribunaux, droits fondamentaux, biais, Barreau, accès à la justice, Charte - Résumé : De la recherche juridique à l'évaluation du risque de récidive, l'IA entre dans les palais de justice. Promesses d'efficacité mais risques pour les droits fondamentaux des justiciables québécois. ## La technologie aux portes du palais de justice L'intelligence artificielle fait son entrée progressive dans les systèmes judiciaires du monde entier, et le Québec n'y échappe pas. De l'aide à la recherche juridique à l'évaluation des risques de récidive, de la prédiction des issues judiciaires à l'automatisation des tâches administratives, l'IA promet de rendre la justice plus rapide, plus accessible et plus cohérente. Mais cette promesse s'accompagne de risques fondamentaux pour les droits des justiciables, l'indépendance judiciaire et l'équité du système de justice. Le Québec, avec sa tradition de droit civil et son attachement aux droits fondamentaux, doit aborder cette transformation avec une prudence particulière. ## Les applications actuelles et émergentes Plusieurs applications d'IA sont déjà utilisées ou en voie de l'être dans le milieu juridique québécois. La recherche juridique assistée par l'IA est l'application la plus répandue. Des outils alimentés par le traitement automatique du langage permettent aux avocats et aux juges de rechercher la jurisprudence, la doctrine et la législation avec une rapidité et une exhaustivité que les méthodes traditionnelles ne permettent pas. Ces outils peuvent identifier des décisions pertinentes, synthétiser des courants jurisprudentiels et signaler des contradictions dans la jurisprudence. La rédaction juridique assistée par l'IA générative gagne en popularité. Les outils comme ChatGPT et Claude sont utilisés par des avocats pour préparer des ébauches de mémoires, des résumés de faits et des analyses juridiques. Cette pratique soulève toutefois des risques documentés : des cas d'avocats ayant soumis à des tribunaux des mémoires contenant des citations jurisprudentielles inventées par l'IA ont été rapportés dans plusieurs juridictions, entraînant des sanctions disciplinaires. Les outils de prédiction des issues judiciaires analysent les données historiques des tribunaux pour estimer la probabilité de succès d'une action en justice, les montants probables de dommages ou les peines susceptibles d'être imposées. Ces outils peuvent informer les décisions stratégiques des avocats et de leurs clients, mais ils risquent aussi de créer une prophétie auto-réalisatrice si les acteurs du système judiciaire alignent leur comportement sur les prédictions algorithmiques. Les systèmes d'évaluation du risque dans le domaine pénal, utilisés dans certaines juridictions pour informer les décisions de mise en liberté, de détermination de la peine ou de libération conditionnelle, sont les applications les plus controversées. L'outil COMPAS, utilisé dans plusieurs États américains, a fait l'objet de critiques pour ses biais raciaux documentés. L'automatisation des tâches administratives, gestion des calendriers, traitement des documents, notifications aux parties, peut améliorer l'efficacité du système judiciaire et libérer du temps pour les fonctions qui requièrent un jugement humain. ## Les risques pour les droits fondamentaux L'utilisation de l'IA dans le système judiciaire comporte des risques spécifiques pour les droits fondamentaux protégés par la Charte des droits et libertés de la personne du Québec et par la Charte canadienne des droits et libertés. Le droit à l'égalité (article 10 de la Charte québécoise) peut être compromis par des systèmes d'IA qui reproduisent des biais historiques. Si les données judiciaires reflètent des disparités dans le traitement des groupes racialisés, des femmes ou des personnes à faible revenu, les modèles d'IA entraînés sur ces données risquent de perpétuer ces disparités. Le droit à une audience impartiale (article 23) suppose un décideur qui exerce un jugement indépendant. Si un juge s'appuie de manière excessive sur les recommandations d'un système d'IA, son indépendance de jugement peut être compromise, un phénomène connu sous le nom de « biais d'automatisation », la tendance à accorder une confiance excessive aux recommandations algorithmiques. Le droit de connaître les motifs d'une décision est un principe fondamental de la justice naturelle. Lorsqu'un système d'IA contribue à une décision judiciaire, le justiciable doit pouvoir comprendre cette contribution. Les modèles d'IA de type « boîte noire », dont le fonctionnement interne est opaque, posent un défi direct à ce principe. Le droit à la présomption d'innocence (article 11(d) de la Charte canadienne) peut être menacé par des systèmes de prédiction du risque qui évaluent un individu sur la base de caractéristiques statistiques plutôt que sur ses actions individuelles. ## Le cadre déontologique et réglementaire Le Barreau du Québec et la Chambre des notaires du Québec ont commencé à aborder les enjeux de l'IA dans la pratique juridique. Des lignes directrices sur l'utilisation responsable de l'IA par les avocats sont en cours d'élaboration, portant sur la vérification des contenus générés par l'IA, la confidentialité des données clients saisies dans les systèmes d'IA, la responsabilité professionnelle en cas d'erreurs imputables à l'IA et l'obligation de divulgation de l'utilisation de l'IA aux clients et aux tribunaux. La magistrature québécoise doit également se positionner. Les règles de pratique des tribunaux devront éventuellement encadrer l'utilisation de l'IA par les parties et par les tribunaux eux-mêmes. Des formations spécifiques pour les juges sur les capacités et les limites de l'IA sont nécessaires. Le Conseil de la magistrature du Québec et le Conseil canadien de la magistrature ont un rôle important à jouer dans l'établissement de principes directeurs pour l'utilisation de l'IA dans la fonction judiciaire. ## L'accès à la justice et l'IA L'IA peut contribuer à atténuer la crise d'accès à la justice que connaît le Québec. Les agents conversationnels juridiques peuvent fournir des informations de base sur les droits et les procédures. Les outils d'aide à la rédaction de documents juridiques peuvent permettre aux justiciables non représentés de préparer leurs actes de procédure. Les systèmes de résolution en ligne des litiges peuvent offrir des alternatives rapides et peu coûteuses aux procédures judiciaires traditionnelles. Mais ces applications doivent être déployées avec discernement. Un agent conversationnel qui fournit des informations juridiques erronées peut causer plus de tort que de bien. Les outils de résolution en ligne des litiges doivent offrir les mêmes garanties procédurales que les tribunaux traditionnels. ## Recommandations Le Québec devrait établir un moratoire sur l'utilisation de systèmes d'évaluation du risque algorithmique dans les décisions judiciaires pénales tant qu'un cadre adéquat n'est pas en place. Des normes de transparence et d'explicabilité doivent être imposées pour tout système d'IA utilisé dans le processus judiciaire. Des audits indépendants pour les biais doivent être exigés avant le déploiement de tout outil d'IA dans les tribunaux. La formation des professionnels du droit aux enjeux de l'IA doit être intégrée dans la formation continue obligatoire. Les mécanismes de recours pour les justiciables affectés par des décisions influencées par l'IA doivent être clarifiés. ## Conclusion L'introduction de l'IA dans le système judiciaire québécois est une question de droits fondamentaux, pas seulement d'efficacité technologique. La justice est l'institution par laquelle la société protège les droits des individus et résout ses conflits. L'intégration de l'IA dans cette institution doit se faire avec le plus grand soin, en plaçant les droits des justiciables, l'indépendance judiciaire et l'équité au centre de chaque décision. --- ### Gouvernance de l'IA : comparaison des approches du Québec, de l'Europe et des États-Unis - URL : https://gouvernance.ai/actualites/comparaison-approches-gouvernance-ia - Date : 2026-02-06 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : comparaison, AI Act, Europe, États-Unis, réglementation, approches, international - Résumé : Europe réglementaire, États-Unis libéraux, Québec à la croisée des chemins. Comparaison des trois approches de gouvernance de l'IA et enseignements pour les décideurs québécois. ## Trois philosophies, un même défi La gouvernance de l'intelligence artificielle est un enjeu mondial qui se décline selon des approches profondément différentes d'une juridiction à l'autre. L'Union européenne a opté pour une réglementation ambitieuse et contraignante. Les États-Unis privilégient une approche sectorielle et largement volontaire. Le Québec, à l'intersection de ces influences et fort de ses propres traditions juridiques et sociales, développe une voie distincte. Comprendre ces différentes approches est essentiel pour les décideurs québécois qui opèrent dans un contexte de plus en plus internationalisé. ## L'approche européenne : le Règlement sur l'intelligence artificielle L'Union européenne a adopté le Règlement sur l'intelligence artificielle (RIA), premier cadre réglementaire complet au monde spécifiquement dédié à l'IA. Ce règlement, entré progressivement en application, établit une approche fondée sur le risque qui classe les systèmes d'IA en quatre catégories selon leur niveau de risque. Les systèmes à risque inacceptable sont interdits. Cela inclut les systèmes de crédit social, la manipulation subliminale, l'exploitation de vulnérabilités et certaines formes de reconnaissance faciale en temps réel dans les espaces publics. Les systèmes à haut risque, utilisés dans les infrastructures critiques, l'éducation, l'emploi, les services essentiels, la justice et la gestion de l'immigration, sont soumis à des obligations strictes en matière de gestion des risques, de qualité des données, de documentation technique, de transparence, de surveillance humaine et de robustesse. Les systèmes à risque limité sont soumis à des obligations de transparence, notamment l'obligation d'informer les utilisateurs qu'ils interagissent avec un système d'IA. Les systèmes à risque minimal ne sont soumis à aucune obligation spécifique. Le RIA est complété par le Règlement général sur la protection des données (RGPD), qui encadre le traitement des données personnelles et qui a exercé une influence mondiale sur la législation en matière de vie privée, y compris sur la Loi 25 au Québec. L'approche européenne se caractérise par sa dimension prescriptive, son champ d'application extraterritorial (elle s'applique aux systèmes déployés ou ayant des effets dans l'UE, quel que soit le lieu d'établissement du fournisseur), son mécanisme de sanctions dissuasif (amendes pouvant atteindre 35 millions d'euros ou 7 % du chiffre d'affaires mondial) et l'établissement de structures de gouvernance dédiées, dont le Bureau européen de l'IA. ## L'approche américaine : flexibilité et sectorialité Les États-Unis ont adopté une approche fondamentalement différente. Plutôt qu'un cadre réglementaire unifié, l'approche américaine repose sur une combinaison de lignes directrices fédérales, de réglementations sectorielles et d'initiatives des États. Au niveau fédéral, le décret exécutif sur l'IA signé par le président Biden en octobre 2023 a établi des exigences de sécurité et de transparence pour les développeurs de systèmes d'IA les plus puissants, tout en restant en deçà d'une réglementation contraignante. L'Institut national des normes et de la technologie (NIST) a publié un cadre de gestion des risques de l'IA (AI Risk Management Framework) qui constitue une référence volontaire pour les organisations. Au niveau des États, des initiatives législatives variées émergent. La Californie, l'État de New York, le Colorado et d'autres ont adopté ou proposé des lois ciblant des aspects spécifiques de l'IA, comme les biais dans les systèmes de recrutement ou la transparence des systèmes de décision automatisée. Cette fragmentation crée un paysage réglementaire complexe pour les entreprises opérant dans plusieurs États. L'approche américaine se caractérise par sa préférence pour l'autorégulation et les normes volontaires, sa priorité accordée à l'innovation et à la compétitivité, son cadre sectoriel plutôt qu'horizontal, et la responsabilité largement laissée aux entreprises de définir leurs propres pratiques de gouvernance. ## L'approche québécoise : une voie médiane L'approche québécoise en matière de gouvernance de l'IA se situe entre le modèle européen et le modèle américain, tout en présentant des caractéristiques propres. Comme l'Europe, le Québec dispose d'un cadre législatif de protection des données personnelles robuste et contraignant (la Loi 25), qui impose des obligations significatives aux organisations utilisant l'IA. Comme l'Europe, le Québec valorise la protection des droits fondamentaux et l'encadrement public des technologies. Comme les États-Unis, le Québec n'a pas (encore) adopté de législation spécifique à l'IA. Le cadre applicable résulte de l'application de lois existantes, protection des données, droits de la personne, responsabilité civile, aux systèmes d'IA. L'approche québécoise se distingue par plusieurs éléments propres. La tradition de droit civil, fondée sur le Code civil du Québec, offre des mécanismes de responsabilité et de protection distincts de la common law en vigueur dans le reste du Canada et aux États-Unis. La démarche participative de la Déclaration de Montréal constitue une innovation en matière de cocréation de principes éthiques pour l'IA. La dualité des compétences fédérale et provinciale crée un cadre de gouvernance multi-niveaux qui peut être source de complexité mais aussi de complémentarité. ## Analyse comparative des forces et faiblesses L'approche européenne offre une certitude juridique et une protection des droits élevées, mais elle est critiquée pour sa complexité, ses coûts de conformité et son risque de freiner l'innovation. Le modèle américain favorise l'innovation et la flexibilité, mais il offre une protection inégale et fragmentée, avec des lacunes importantes en matière de droits individuels. L'approche québécoise bénéficie d'un cadre de protection des données solide et d'un écosystème de recherche de premier plan, mais elle souffre de l'absence de législation spécifique à l'IA et de la complexité du partage de compétences fédéral-provincial. ## Les leçons pour le Québec L'expérience européenne offre au Québec des enseignements précieux en matière de classification des risques, de mécanismes d'évaluation de conformité et de structures de gouvernance. L'approche fondée sur le risque du RIA pourrait inspirer un futur cadre québécois qui concentrerait les obligations réglementaires sur les systèmes d'IA les plus susceptibles de porter atteinte aux droits des personnes. L'expérience américaine illustre l'importance de maintenir un environnement favorable à l'innovation et de ne pas imposer des obligations disproportionnées aux petites entreprises et aux start-ups. Les approches sectorielles américaines offrent aussi des exemples de réglementation ciblée qui pourrait être adaptée au contexte québécois. Le Québec devrait chercher à tirer le meilleur des deux modèles : la rigueur de la protection des droits fondamentaux à l'européenne et la flexibilité favorisant l'innovation à l'américaine, le tout enraciné dans ses propres valeurs et traditions juridiques. ## Les enjeux d'interopérabilité Pour les entreprises québécoises qui opèrent à l'international, la multiplicité des cadres de gouvernance de l'IA crée des défis de conformité. Une entreprise montréalaise qui déploie un système d'IA en Europe, aux États-Unis et au Québec doit naviguer dans des cadres réglementaires différents et parfois contradictoires. L'harmonisation, ou à défaut l'interopérabilité, des cadres de gouvernance de l'IA est un objectif stratégique pour le Québec. La participation active aux forums internationaux de gouvernance de l'IA et la prise en compte des normes internationales dans l'élaboration du cadre québécois sont essentielles pour faciliter les échanges économiques et la collaboration en recherche. ## Conclusion La gouvernance de l'IA est un domaine en pleine structuration au niveau mondial. Le Québec a l'opportunité de développer une approche qui lui est propre, inspirée des meilleures pratiques internationales mais enracinée dans ses valeurs et ses réalités. L'enjeu n'est pas de choisir entre le modèle européen et le modèle américain, mais de construire un modèle québécois qui concilie protection des droits, promotion de l'innovation et affirmation de ses valeurs distinctes. --- ### Le décret exécutif américain sur l'IA de décembre 2025 : répercussions pour le Québec - URL : https://gouvernance.ai/actualites/decret-executif-americain-ia-2025 - Date : 2026-02-05 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : États-Unis, dérégulation, décret exécutif, compétitivité, ACEUM, différenciation - Résumé : Le décret américain de décembre 2025 marque un virage déréglementaire majeur en IA. Suppression des tests de sécurité, préemption fédérale : répercussions pour le Québec et opportunité de différenciation. ## Un virage déréglementaire majeur En décembre 2025, l'administration américaine a signé un décret exécutif qui a radicalement réorienté la politique des États-Unis en matière d'intelligence artificielle. Rompant avec l'approche de l'administration Biden, qui avait mis l'accent sur la sécurité, la transparence et les droits civiques, le nouveau décret privilégie la compétitivité, la dérégulation et la préemption des lois étatiques en matière d'IA. Ce virage a des répercussions directes et indirectes pour le Québec, qui entretient des liens économiques étroits avec les États-Unis. ## Le contenu du décret Le décret exécutif de décembre 2025 annule plusieurs dispositions de l'Executive Order 14110 de l'administration Biden, qui imposait des obligations de sécurité et de transparence aux développeurs de systèmes d'IA avancés. Les principales mesures du nouveau décret incluent la suppression des exigences de test de sécurité pré-déploiement pour les modèles de fondation, le retrait des obligations de signalement au gouvernement fédéral pour les systèmes d'IA à haut risque, l'affirmation du principe de préemption fédérale, selon lequel la politique fédérale en matière d'IA a préséance sur les lois étatiques et locales plus restrictives, et la réduction du rôle des agences fédérales dans la surveillance des systèmes d'IA. Le principe de préemption est particulièrement significatif. Plusieurs États américains, la Californie, le Colorado, l'Illinois, le Connecticut, avaient adopté ou proposé des législations ambitieuses en matière de gouvernance de l'IA, imposant des obligations de transparence, d'évaluation d'impact et de non-discrimination pour les systèmes automatisés. Le décret fédéral vise à limiter la portée de ces lois étatiques, arguant qu'un « patchwork » réglementaire nuit à l'innovation et à la compétitivité américaine. ## L'impact sur l'écosystème nord-américain Ce virage américain a des conséquences directes pour l'ensemble de l'Amérique du Nord. Les entreprises technologiques américaines, libérées de certaines contraintes réglementaires, peuvent développer et déployer des systèmes d'IA avec moins de garde-fous. Ces systèmes sont ensuite exportés vers le Canada et utilisés par des organisations québécoises, qui se trouvent à utiliser des technologies développées dans un environnement réglementaire plus laxiste que le leur. L'argument de la compétitivité est avancé par les partisans de la dérégulation pour faire pression sur les juridictions qui maintiennent des exigences plus strictes. Le Québec pourrait faire face à des pressions, de la part d'entreprises technologiques, de lobbyistes et même de certains acteurs politiques, pour assouplir ses propres règles afin de ne pas « freiner l'innovation ». L'incertitude juridique aux États-Unis, créée par les conflits potentiels entre le décret fédéral et les lois étatiques existantes, complique la conformité pour les entreprises qui opèrent des deux côtés de la frontière. Les organisations québécoises qui exportent vers les États-Unis doivent naviguer dans un environnement réglementaire américain en pleine turbulence. ## Les implications pour le Québec Pour le Québec, le décret américain est à la fois un défi et une opportunité. Le défi réside dans la pression compétitive. Si les entreprises américaines peuvent développer et déployer de l'IA sans les contraintes auxquelles sont soumises les entreprises québécoises, ces dernières pourraient être désavantagées en termes de coûts et de rapidité de mise en marché. Ce risque doit être pris au sérieux et intégré dans la conception du cadre québécois de gouvernance. L'opportunité réside dans la différenciation. Le virage déréglementaire américain crée un espace pour les juridictions qui maintiennent des standards élevés de gouvernance de l'IA. Les entreprises et les clients qui valorisent la sécurité, la transparence et la protection des droits, et ils sont nombreux, tant chez les entreprises européennes que chez les consommateurs informés, peuvent être attirés par un cadre québécois qui offre ces garanties. L'expérience de la protection des données personnelles est instructive. L'adoption du RGPD par l'Union européenne, malgré les prédictions de certains que cette réglementation tuerait l'innovation, a en réalité renforcé la confiance des citoyens et des entreprises envers les services numériques européens. Le Québec, avec sa Loi 25, a déjà emprunté cette voie pour la protection des données. La même logique peut s'appliquer à la gouvernance de l'IA. ## La coordination Canada-Québec face au virage américain La réponse au décret américain ne peut être uniquement québécoise, elle doit aussi être canadienne. Le gouvernement fédéral, avec son nouveau ministre de l'IA, doit définir la position du Canada face à l'approche américaine. Le Québec a un intérêt stratégique à influencer cette position pour qu'elle maintienne des standards élevés de gouvernance tout en protégeant la compétitivité canadienne. La coordination fédérale-provinciale est d'autant plus importante que le commerce avec les États-Unis est régi par l'ACEUM (Accord Canada–États-Unis–Mexique), qui contient des dispositions sur le commerce numérique et les transferts de données. Les implications de ces dispositions pour la gouvernance de l'IA sont encore mal comprises et mériteraient une analyse approfondie. ## Leçons pour la conception du cadre québécois Le décret américain offre des leçons, à la fois positives et négatives, pour la conception du cadre québécois de gouvernance de l'IA. La leçon positive est qu'un cadre de gouvernance doit être proportionné et éviter d'imposer des charges excessives aux petits acteurs. Les critiques légitimes adressées aux réglementations étatiques américaines, complexité, coûts de conformité, incertitude juridique, doivent être prises en compte par le Québec pour concevoir un cadre efficace sans être paralysant. La leçon négative est que l'absence de garde-fous expose les citoyens à des risques significatifs. La décision algorithmique sans transparence, la collecte de données sans limites, le déploiement de systèmes non testés, ces pratiques causent des préjudices réels que le marché seul ne corrige pas. Le rôle de la réglementation est précisément de protéger les citoyens contre ces risques. Le Québec devrait viser un cadre qui soit clair et prévisible, pour que les entreprises sachent exactement ce qu'on attend d'elles, proportionné aux risques, pour éviter de surréguler les applications à faible risque, protecteur des droits fondamentaux, pour que la compétitivité ne se fasse pas au détriment des citoyens, et interopérable, pour faciliter les échanges avec les partenaires commerciaux, y compris les États-Unis et l'Europe. ## Conclusion Le virage déréglementaire américain en matière d'IA redéfinit le paysage compétitif nord-américain. Le Québec ne doit ni imiter cette approche ni l'ignorer. Il doit tracer sa propre voie, en s'appuyant sur ses valeurs, son cadre juridique et ses avantages comparatifs pour construire un modèle de gouvernance qui protège ses citoyens tout en positionnant son économie pour prospérer dans l'ère de l'IA. --- ### L'intelligence artificielle et la protection de la langue française au Québec - URL : https://gouvernance.ai/actualites/ia-protection-langue-francaise - Date : 2026-02-02 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : langue française, francophonie, Charte de la langue française, Loi 96, NLP, souveraineté linguistique - Résumé : L'IA est massivement anglophone. Pour le Québec, société francophone, cette asymétrie linguistique soulève des enjeux identitaires majeurs. Comment assurer la place du français à l'ère de l'IA ? ## Un enjeu identitaire à l'ère numérique La protection et la promotion de la langue française sont au cœur de l'identité québécoise. La Charte de la langue française, adoptée en 1977 et renforcée par la Loi 96 en 2022, affirme le français comme langue officielle du Québec, langue de l'Administration, du travail, du commerce et de l'enseignement. Or, l'intelligence artificielle, dans sa forme actuelle, est massivement anglophone. Cette asymétrie linguistique soulève des enjeux de gouvernance spécifiques que le Québec doit adresser avec détermination. ## Le biais anglophone de l'IA Les grands modèles de langage, les systèmes de reconnaissance vocale, les moteurs de traduction et les agents conversationnels sont principalement entraînés sur des corpus de textes anglophones. L'anglais domine Internet, les publications scientifiques, les bases de données et les réseaux sociaux, ce qui se traduit par une surreprésentation massive dans les données d'entraînement des modèles d'IA. Les conséquences de ce déséquilibre sont multiples. Les modèles de langage sont moins performants en français qu'en anglais, avec des erreurs grammaticales plus fréquentes, une compréhension contextuelle plus limitée et une moindre capacité à saisir les nuances et les expressions propres au français québécois. Les systèmes de reconnaissance vocale peinent à traiter les accents et les particularités phonétiques du français québécois. Les outils de traduction automatique, bien qu'en amélioration constante, produisent encore des résultats imparfaits pour les textes techniques, juridiques et littéraires en français. Ce biais linguistique n'est pas anodin. Il crée une inégalité d'accès aux technologies et aux services numériques entre les locuteurs anglophones et francophones. Il peut pousser les utilisateurs à interagir en anglais avec les systèmes d'IA pour obtenir de meilleurs résultats, ce qui contribue à l'érosion du français dans les milieux numériques et professionnels. Il peut aussi produire des résultats biaisés ou inappropriés lorsque les particularités culturelles et linguistiques du Québec ne sont pas adéquatement prises en compte. ## Le cadre juridique : la Charte de la langue française et l'IA La Charte de la langue française impose le français comme langue de l'Administration, du commerce et des affaires, du travail et de l'enseignement. La Loi 96, qui a modernisé la Charte en 2022, a renforcé ces exigences, notamment en matière de droit de travailler en français et de recevoir des services en français. L'application de ces exigences aux systèmes d'IA n'est pas encore pleinement définie, mais les principes sont clairs. Les organismes publics qui déploient des systèmes d'IA pour interagir avec les citoyens doivent offrir ces services en français, avec un niveau de qualité au moins équivalent à celui offert dans d'autres langues. Les entreprises qui utilisent l'IA dans leur environnement de travail doivent s'assurer que ces outils sont disponibles et fonctionnels en français, pour respecter le droit des employés de travailler dans cette langue. L'Office québécois de la langue française (OQLF) est l'organisme chargé de veiller à l'application de la Charte de la langue française. Son mandat l'amène naturellement à s'intéresser aux enjeux linguistiques posés par l'IA, bien que ses capacités techniques dans ce domaine doivent être renforcées. ## Les initiatives québécoises pour une IA francophone Plusieurs initiatives sont en cours au Québec pour développer des ressources et des outils d'IA en français. La création de corpus de textes en français québécois est un effort fondamental. Des projets de numérisation et de constitution de bases de données textuelles en français, intégrant les particularités linguistiques et culturelles du Québec, fournissent des matériaux d'entraînement essentiels pour les modèles d'IA. La Bibliothèque et Archives nationales du Québec (BAnQ), les universités québécoises et des organismes comme l'OQLF contribuent à ces efforts. Le développement de modèles de traitement du langage naturel adaptés au français québécois est un axe de recherche actif. Des chercheurs de Mila, de l'Université de Montréal et d'autres institutions travaillent sur des modèles capables de comprendre et de produire du français québécois de qualité, en tenant compte des expressions, du vocabulaire et de la syntaxe propres au Québec. Les outils de terminologie et de normalisation linguistique assistés par l'IA peuvent contribuer à enrichir et à mettre à jour les ressources terminologiques en français, facilitant la traduction des concepts technologiques émergents et la création de néologismes en français. ## Les enjeux pour les entreprises québécoises Les entreprises québécoises qui adoptent des outils d'IA font face à un dilemme pratique. Les solutions d'IA les plus performantes et les plus accessibles sont souvent développées en anglais, par des entreprises américaines ou internationales. L'obligation de travailler en français peut sembler entrer en tension avec la volonté d'utiliser les outils les plus avancés. Cette tension est en réalité un appel à l'innovation. Le développement de solutions d'IA de qualité en français représente une opportunité de marché pour les entreprises québécoises, non seulement au Québec, mais aussi dans l'ensemble de la francophonie mondiale, un marché de plus de 300 millions de locuteurs. Les entreprises qui investissent dans l'IA francophone se positionnent sur un créneau stratégique à long terme. Les obligations de la Charte de la langue française s'appliquent aussi aux fournisseurs de solutions d'IA qui opèrent au Québec. Les contrats avec des fournisseurs technologiques doivent inclure des exigences de qualité de service en français, des engagements d'adaptation aux particularités du français québécois et des mécanismes de vérification de la performance linguistique. ## La souveraineté linguistique numérique La question de l'IA francophone s'inscrit dans un enjeu plus large de souveraineté linguistique numérique. Si les outils numériques et les systèmes d'IA qui structurent la vie économique, sociale et culturelle ne fonctionnent adéquatement qu'en anglais, le statut du français comme langue de la vie publique au Québec est menacé. La souveraineté linguistique à l'ère de l'IA suppose de s'assurer que le français est une langue pleinement fonctionnelle dans l'environnement numérique, avec des outils d'IA performants et des contenus de qualité. Cette souveraineté nécessite une coordination entre les acteurs. Le gouvernement, les institutions de recherche, les entreprises et les organismes linguistiques doivent unir leurs efforts pour constituer les ressources, développer les outils et créer les conditions de marché qui permettront à l'IA en français de prospérer. ## Recommandations Pour assurer la protection et la promotion du français dans l'écosystème de l'IA, le Québec devrait investir massivement dans la constitution de corpus de données en français québécois, incluant les registres oral et écrit, soutenir la recherche et le développement de modèles d'IA spécialisés en français, intégrer des exigences de performance en français dans les marchés publics de solutions d'IA, renforcer les capacités de l'OQLF en matière de surveillance linguistique des technologies d'IA, encourager les partenariats internationaux avec la francophonie pour le développement de ressources et d'outils communs, et sensibiliser les entreprises aux obligations et aux opportunités liées à l'IA en français. ## Conclusion La protection du français à l'ère de l'IA n'est pas un combat d'arrière-garde : c'est un enjeu d'avenir. Le Québec a les moyens de faire du français une langue pleinement fonctionnelle dans l'écosystème de l'intelligence artificielle, mais cela exige des investissements, de la coordination et une volonté politique affirmée. L'IA en français est non seulement possible, elle est nécessaire pour que le Québec puisse pleinement bénéficier de la révolution technologique en cours tout en préservant son identité linguistique et culturelle. --- ### Infrastructure souveraine d'IA au Canada : le rôle stratégique du Québec - URL : https://gouvernance.ai/actualites/infrastructure-souveraine-ia-canada-quebec - Date : 2026-02-01 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : infrastructure, souveraineté, GPU, Hydro-Québec, Mila, centres de données, énergie - Résumé : 925,6 M$ pour l'infrastructure souveraine d'IA au Canada. Le Québec, avec son hydroélectricité et Mila, est idéalement positionné. Enjeux d'accès équitable, de sécurité et de gouvernance. ## L'enjeu de la souveraineté computationnelle La course mondiale à l'intelligence artificielle est aussi une course à l'infrastructure. Les modèles d'IA les plus avancés exigent une puissance de calcul considérable, des milliers de processeurs graphiques (GPU) fonctionnant en parallèle pendant des semaines pour entraîner un seul modèle. Cette réalité technique a des implications géopolitiques profondes : les pays qui ne disposent pas de leur propre infrastructure de calcul sont dépendants d'entreprises et de gouvernements étrangers pour accéder à une technologie qui devient stratégique. Le Canada, et le Québec en particulier, se positionne pour réduire cette dépendance. ## L'investissement fédéral de 925,6 millions de dollars L'annonce par le gouvernement fédéral d'un investissement additionnel de 925,6 millions de dollars canadiens sur cinq ans pour l'infrastructure souveraine d'IA au Canada marque un tournant. Cet investissement vise à créer une capacité de calcul nationale qui permettra aux chercheurs et aux entreprises canadiennes de développer et d'entraîner des modèles d'IA de pointe sans dépendre exclusivement des infrastructures cloud des géants technologiques américains. Le financement est réparti entre plusieurs volets : l'acquisition et le déploiement de grappes de calcul haute performance (supercalculateurs), le soutien aux trois instituts nationaux d'IA, Mila à Montréal, le Vector Institute à Toronto et Amii à Edmonton, pour renforcer leur capacité computationnelle, le développement de plateformes d'accès partagé pour les chercheurs et les PME, et des programmes de formation pour développer les compétences nécessaires à l'utilisation de ces infrastructures. ## L'avantage stratégique du Québec Le Québec dispose d'avantages structurels significatifs pour accueillir une part importante de l'infrastructure souveraine d'IA au Canada. L'énergie hydroélectrique abondante et à faible coût est l'atout le plus déterminant. L'entraînement de modèles d'IA est extrêmement énergivore, et le coût de l'électricité représente une part significative des coûts d'exploitation des centres de données. Le Québec, avec son hydroélectricité propre et abordable, offre un avantage économique et environnemental que peu de juridictions peuvent égaler. Le climat froid du Québec réduit les coûts de refroidissement des centres de données, qui représentent une part importante de leur consommation énergétique. Cette géographie favorable renforce l'attractivité du Québec comme site d'implantation. L'écosystème de recherche en IA centré autour de Mila, le plus grand institut de recherche en apprentissage profond au monde en termes de chercheurs académiques, offre un bassin de talents et d'expertise inégalé. La proximité entre l'infrastructure de calcul et les équipes de recherche qui l'utiliseront est un facteur d'efficacité. La connectivité réseau du Québec, avec des liaisons à haute capacité vers les grandes villes nord-américaines et vers l'Europe, facilite les collaborations internationales et le transfert de données nécessaires aux projets d'IA à grande échelle. ## Les enjeux de gouvernance de l'infrastructure L'infrastructure souveraine d'IA soulève des questions de gouvernance spécifiques que le Québec doit anticiper. L'accès équitable à la capacité de calcul est un enjeu fondamental. Si l'infrastructure souveraine est principalement utilisée par les grandes entreprises et les institutions de recherche établies, les PME et les start-ups, qui forment le tissu vital de l'écosystème d'innovation québécois, resteront désavantagées. Des mécanismes d'allocation équitable, avec des quotas réservés aux petits acteurs et des tarifs préférentiels, doivent être intégrés dès la conception. La sécurité et la protection des données hébergées dans l'infrastructure souveraine sont critiques. Les modèles d'IA entraînés sur des données sensibles, données de santé, données gouvernementales, données financières, doivent être protégés contre les accès non autorisés, les cyberattaques et les ingérences étrangères. Les normes de sécurité applicables à cette infrastructure doivent être à la hauteur de sa sensibilité stratégique. La gouvernance institutionnelle de l'infrastructure, qui décide des priorités d'allocation, qui contrôle les politiques d'accès, qui assure la transparence des opérations, doit refléter la diversité des parties prenantes : gouvernements, universités, entreprises, société civile. Un modèle de gouvernance multipartite, avec des mécanismes de reddition de comptes, est préférable à un contrôle exclusif par le gouvernement ou par le secteur privé. La durabilité environnementale de l'infrastructure doit être assurée. Même si l'hydroélectricité québécoise est propre, la croissance exponentielle de la demande en calcul pour l'IA exerce une pression sur le réseau électrique. Le Québec doit planifier cette croissance de manière durable, en tenant compte des besoins des autres secteurs de l'économie et des engagements environnementaux de la province. ## Le positionnement international L'infrastructure souveraine d'IA est un outil de positionnement international pour le Québec. En offrant une capacité de calcul alimentée par de l'énergie propre, dans un cadre juridique robuste et avec un écosystème de recherche de premier plan, le Québec peut attirer des entreprises et des chercheurs internationaux soucieux de conformité réglementaire et de durabilité. Ce positionnement est d'autant plus pertinent que plusieurs juridictions, l'Union européenne, le Japon, la Corée du Sud, cherchent à réduire leur dépendance envers les infrastructures cloud américaines et chinoises. Le Québec pourrait se positionner comme une alternative crédible pour certains de ces acteurs, en capitalisant sur sa réputation en matière de gouvernance responsable de l'IA et sur ses avantages énergétiques. ## Les défis à surmonter Le développement de l'infrastructure souveraine d'IA n'est pas sans défis. La pénurie mondiale de GPU de pointe crée des délais d'approvisionnement et des coûts élevés. La compétition avec les géants technologiques pour les composants et les talents est intense. La rapidité de l'évolution technologique rend les investissements en infrastructure rapidement obsolètes, exigeant des stratégies de renouvellement anticipées. Le Québec doit également gérer les tensions potentielles entre la demande croissante en électricité pour les centres de données d'IA et les autres usages, industriels, résidentiels, de transport, de l'électricité québécoise. Hydro-Québec doit planifier cette allocation de manière stratégique, en s'assurant que le développement de l'infrastructure d'IA ne se fait pas au détriment des autres priorités de la province. ## Conclusion L'infrastructure souveraine d'IA est un pilier indispensable de la stratégie québécoise en matière d'intelligence artificielle. Sans capacité de calcul sous contrôle national, la souveraineté technologique est illusoire. Le Québec, avec ses avantages énergétiques, son écosystème de recherche et son cadre de gouvernance, est idéalement positionné pour être le cœur de l'infrastructure d'IA du Canada. Mais réaliser ce potentiel exige une planification stratégique, des investissements soutenus et une gouvernance inclusive qui assure que les bénéfices de cette infrastructure profitent à l'ensemble de la société québécoise. --- ### Le rôle de la Commission d'accès à l'information dans la gouvernance de l'IA au Québec - URL : https://gouvernance.ai/actualites/role-cai-gouvernance-ia - Date : 2026-01-29 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : CAI, Commission d'accès à l'information, surveillance, Loi 25, régulateur, conformité - Résumé : La Commission d'accès à l'information du Québec occupe une position centrale dans la gouvernance de l'IA. La Loi 25 a renforcé ses pouvoirs. Analyse de son rôle, de ses défis et de ses perspectives. ## Un organisme de surveillance à l'épreuve de l'IA La Commission d'accès à l'information du Québec (CAI) occupe une position centrale dans l'architecture de gouvernance de l'intelligence artificielle au Québec. Chargée de veiller à la protection des renseignements personnels et à l'accès aux documents des organismes publics, la CAI est l'organisme de surveillance le plus directement concerné par les enjeux que soulèvent les systèmes d'IA en matière de données personnelles et de transparence administrative. La Loi 25 a considérablement renforcé ses pouvoirs, mais aussi ses responsabilités. ## Le mandat élargi de la CAI La Loi 25 a transformé le rôle de la CAI. Outre ses fonctions traditionnelles d'adjudication des litiges en matière d'accès à l'information et de protection des renseignements personnels, la CAI dispose désormais de pouvoirs accrus de surveillance, d'enquête et de sanction. Le pouvoir d'imposer des sanctions administratives pécuniaires constitue un changement majeur. La CAI peut désormais imposer des amendes allant jusqu'à 10 millions de dollars ou 2 % du chiffre d'affaires mondial pour les infractions aux lois sur la protection des renseignements personnels. Ce pouvoir, qui n'existait pas avant la Loi 25, donne à la CAI un levier d'application significatif. Le pouvoir d'ordonner est un autre outil important. La CAI peut ordonner à une organisation de prendre les mesures nécessaires pour se conformer à la loi, y compris de cesser une collecte ou une utilisation de renseignements personnels non conforme. Dans le contexte de l'IA, ce pouvoir pourrait être utilisé pour exiger l'arrêt d'un système d'IA qui ne respecte pas les exigences de la loi. La fonction de conseil et d'accompagnement complète les pouvoirs de surveillance et de sanction. La CAI publie des lignes directrices, des avis et des recommandations pour aider les organisations à comprendre et à respecter leurs obligations. Dans le domaine de l'IA, ce rôle de guide est particulièrement important, compte tenu de la complexité technique des enjeux. ## Les défis de la CAI face à l'IA L'intelligence artificielle pose des défis inédits à la CAI, qui doit adapter ses méthodes de travail et développer de nouvelles compétences pour exercer efficacement sa mission. La complexité technique des systèmes d'IA constitue le défi le plus immédiat. L'évaluation de la conformité d'un système d'apprentissage profond aux exigences de la loi requiert des connaissances spécialisées en science des données, en apprentissage automatique et en sécurité informatique. La CAI doit pouvoir compter sur des équipes pluridisciplinaires capables de comprendre et d'analyser les aspects techniques des systèmes qu'elle supervise. L'évolution rapide des technologies rend difficile l'adaptation des cadres d'interprétation et des pratiques de surveillance. Les systèmes d'IA évoluent continuellement, de nouveaux modèles, de nouvelles applications, de nouvelles pratiques émergent à un rythme soutenu. La CAI doit développer une capacité de veille technologique et d'anticipation pour rester pertinente dans un environnement en constante mutation. Le volume des systèmes d'IA déployés au Québec dépasse largement la capacité d'examen individuel de la CAI. Une approche fondée sur le risque, concentrant les efforts de surveillance sur les systèmes les plus susceptibles de porter atteinte aux droits des personnes, est indispensable. La CAI doit développer des critères de priorisation clairs et transparents pour orienter ses activités de surveillance. La dimension transfrontalière de l'IA complique l'exercice de la compétence de la CAI. Les systèmes d'IA sont souvent développés à l'étranger et les données peuvent être stockées et traitées dans plusieurs juridictions. La coopération avec les autorités de protection des données d'autres juridictions, le Commissariat à la protection de la vie privée du Canada, les autorités européennes, les autorités américaines, est essentielle pour exercer une surveillance efficace. ## La CAI et les EFVP L'évaluation des facteurs relatifs à la vie privée (EFVP) est l'outil central de la prévention en matière de protection des renseignements personnels dans le contexte de l'IA. La Loi 25 rend obligatoire la communication de l'EFVP à la CAI avant la mise en œuvre de certains projets. La CAI doit développer des lignes directrices spécifiques pour les EFVP portant sur des systèmes d'IA. Ces lignes directrices devraient aborder des questions propres à l'IA, comme l'évaluation des risques de biais algorithmiques, l'analyse de la proportionnalité entre la quantité de données collectées et les finalités poursuivies, l'évaluation de l'efficacité des mesures de dépersonnalisation, l'analyse des risques liés à la réutilisation des données pour des finalités non prévues et l'évaluation de la transparence et de l'explicabilité des décisions automatisées. ## La CAI et les décisions automatisées La supervision des obligations de transparence relatives aux décisions fondées exclusivement sur un traitement automatisé est un nouveau champ d'action pour la CAI. L'organisme doit s'assurer que les organisations informent effectivement les personnes concernées, qu'elles offrent la possibilité de révision humaine et qu'elles sont en mesure de communiquer les facteurs ayant mené aux décisions. La CAI pourrait développer un cadre d'évaluation de la conformité des systèmes de décision automatisée, incluant des critères de qualité pour les explications fournies, des exigences minimales en matière de processus de révision humaine et des indicateurs de performance pour évaluer l'effectivité des mécanismes de transparence. ## La coopération internationale La CAI participe aux travaux des réseaux internationaux de protection des données, notamment l'Assemblée mondiale pour la protection de la vie privée et les organismes francophones de protection des données. Cette participation est essentielle pour partager les bonnes pratiques, coordonner les approches réglementaires et renforcer l'efficacité de la surveillance dans un contexte où l'IA transcende les frontières. La CAI pourrait intensifier ses échanges avec les autorités qui disposent d'une expérience avancée en matière de réglementation de l'IA, notamment la Commission nationale de l'informatique et des libertés (CNIL) en France et les autorités de protection des données de l'Union européenne, qui opèrent dans le cadre du Règlement sur l'IA. ## Les ressources nécessaires L'exercice effectif du mandat élargi de la CAI dans le domaine de l'IA exige des ressources humaines, financières et techniques à la hauteur des défis. Le recrutement de spécialistes en IA, en science des données et en sécurité informatique est une priorité. La formation continue du personnel existant aux enjeux techniques de l'IA est également indispensable. Des investissements dans les outils technologiques d'analyse et de surveillance sont nécessaires pour permettre à la CAI de traiter efficacement les dossiers impliquant des systèmes d'IA complexes. Le gouvernement du Québec a la responsabilité de s'assurer que la CAI dispose des moyens nécessaires pour remplir sa mission. Un financement adéquat de la CAI n'est pas une dépense : c'est un investissement dans la protection des droits fondamentaux et dans la confiance des citoyens envers l'écosystème numérique. ## Conclusion La Commission d'accès à l'information est un pilier essentiel de la gouvernance de l'IA au Québec. La Loi 25 lui a donné les pouvoirs nécessaires pour jouer ce rôle, mais ces pouvoirs ne seront efficaces que s'ils sont soutenus par des ressources adéquates, des compétences spécialisées et une vision stratégique claire. La CAI doit se transformer pour relever les défis de l'ère de l'intelligence artificielle, tout en maintenant la confiance des citoyens et des organisations dans son rôle de gardien des droits numériques. --- ### AI Act européen : quelles implications pour les organisations canadiennes ? - URL : https://gouvernance.ai/actualites/ai-act-europeen - Date : 2026-01-28 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : AI Act, Union europ\u00e9enne, r\u00e9glementation IA, conformit\u00e9, Canada, extraterritorialit\u00e9 - Résumé : Avec l'entrée en vigueur progressive du règlement européen sur l'IA, les entreprises canadiennes qui opèrent sur le marché européen doivent s'adapter. Analyse des principaux impacts. ## Un règlement à portée extraterritoriale Depuis le 2 février 2025, les premières dispositions du **AI Act européen** sont en application. Ce règlement, le premier cadre juridique complet au monde dédié à l'intelligence artificielle, impose des obligations strictes non seulement aux entreprises européennes, mais également à toute organisation dont les systèmes d'IA **produisent des effets sur le territoire de l'Union européenne**. Pour les entreprises canadiennes, et particulièrement celles du Québec qui entretiennent des liens commerciaux étroits avec l'Europe, cette réalité impose une réflexion stratégique immédiate. ## Les obligations clés à surveiller Le règlement introduit une **classification par niveaux de risque** qui détermine les exigences applicables : - **Risque inacceptable** : Certaines pratiques sont purement interdites, comme la notation sociale ou la manipulation comportementale. - **Risque élevé** : Les systèmes utilisés dans le recrutement, l'évaluation de crédit ou les infrastructures critiques doivent faire l'objet d'une évaluation de conformité rigoureuse. - **Risque limité** : Des obligations de transparence s'appliquent, notamment pour les systèmes conversationnels et les deepfakes. ## Ce que les organisations canadiennes doivent faire dès maintenant Nous recommandons aux organisations concernées de : 1. **Cartographier** l'ensemble de leurs systèmes d'IA ayant une portée européenne. 2. **Évaluer** le niveau de risque de chaque système selon la classification du AI Act. 3. **Documenter** les processus de développement, de test et de déploiement conformément aux exigences techniques. 4. **Former** les équipes aux nouvelles obligations réglementaires. Le Cercle de Gouvernance de l'IA accompagne ses membres dans cette démarche de mise en conformité à travers des ateliers dédiés et des guides pratiques. --- ### L'IA et les Premiers Peuples du Québec : souveraineté des données et gouvernance inclusive - URL : https://gouvernance.ai/actualites/ia-premiers-peuples-quebec - Date : 2026-01-27 - Catégorie : opinion - Auteur : florian-brobst - Mots-clés : Premiers Peuples, autochtones, souveraineté des données, PCAP, inclusion, langues autochtones - Résumé : La gouvernance de l'IA au Québec ne peut ignorer les Premiers Peuples. Souveraineté des données, biais algorithmiques, revitalisation linguistique : vers une gouvernance véritablement inclusive. ## Un angle mort de la gouvernance de l'IA La gouvernance de l'intelligence artificielle au Québec ne peut être complète sans aborder la relation entre l'IA et les Premiers Peuples, les nations autochtones qui habitent le territoire québécois depuis des millénaires. Les Premières Nations, les Inuit et les Métis du Québec sont directement concernés par le déploiement de systèmes d'IA dans des domaines qui touchent leur vie quotidienne, leurs droits et leur autodétermination. Pourtant, leurs voix sont largement absentes des discussions sur la gouvernance de l'IA, et les cadres réglementaires existants ne tiennent pas suffisamment compte de leurs perspectives et de leurs besoins spécifiques. ## La souveraineté des données autochtones Le concept de souveraineté des données autochtones est au cœur de la relation entre l'IA et les Premiers Peuples. Ce principe, articulé notamment par les principes PCAP (Propriété, Contrôle, Accès et Possession) développés par le Centre de gouvernance de l'information des Premières Nations, affirme que les peuples autochtones ont le droit de contrôler la collecte, la propriété et l'application des données qui les concernent. L'IA, par sa nature même, est gourmande en données. Les systèmes d'IA déployés dans les communautés autochtones, ou qui traitent des données relatives aux peuples autochtones, soulèvent des questions fondamentales de consentement et de contrôle. Les données de santé collectées dans les communautés nordiques du Québec sont-elles utilisées pour entraîner des modèles d'IA sans le consentement éclairé des communautés ? Les données environnementales recueillies sur les territoires traditionnels sont-elles exploitées par des systèmes d'IA à des fins commerciales sans que les communautés en bénéficient ? Les principes PCAP exigent que les communautés autochtones soient non seulement informées et consultées, mais qu'elles exercent un contrôle effectif sur les données qui les concernent, y compris sur leur utilisation dans des systèmes d'IA. Ce principe de souveraineté des données est en tension avec les pratiques courantes de l'industrie de l'IA, qui reposent sur l'extraction et l'agrégation massive de données. ## Les risques spécifiques pour les Premiers Peuples Les systèmes d'IA présentent des risques particuliers pour les peuples autochtones du Québec. Les biais algorithmiques sont amplifiés lorsque les données d'entraînement sous-représentent ou mal représentent les réalités autochtones. Un système de diagnostic médical entraîné principalement sur des données de populations non autochtones peut être moins performant pour les patients autochtones. Un algorithme de prédiction de risque utilisé par les services sociaux peut surestimer les risques dans les familles autochtones en raison de corrélations historiques liées aux politiques coloniales plutôt qu'à des facteurs individuels. La surveillance et le profilage par l'IA sont des préoccupations particulièrement sensibles pour les communautés autochtones, compte tenu de l'histoire coloniale de surveillance et de contrôle. Les systèmes de reconnaissance faciale, les outils de surveillance policière prédictive et les systèmes de notation utilisés par les services publics peuvent perpétuer des dynamiques de surveillance disproportionnée. La numérisation des savoirs traditionnels sans consentement adéquat est un risque émergent. Les modèles d'IA générative peuvent incorporer des connaissances traditionnelles autochtones, plantes médicinales, pratiques culturelles, récits oraux, extraites de sources en ligne, sans reconnaître leur origine et sans respecter les protocoles culturels qui régissent leur partage. La fracture numérique limite l'accès des communautés autochtones aux outils d'IA et à leurs bénéfices. De nombreuses communautés autochtones du Québec, particulièrement dans le Nord, disposent d'un accès limité à Internet à haut débit, ce qui les exclut de fait de la révolution numérique et de l'IA. L'IA risque d'élargir les inégalités existantes plutôt que de les réduire. ## Les opportunités de l'IA pour les Premiers Peuples L'IA offre aussi des opportunités significatives pour les communautés autochtones, à condition qu'elle soit développée et déployée de manière respectueuse et inclusive. La préservation et la revitalisation des langues autochtones est un domaine où l'IA peut apporter une contribution précieuse. Des projets de traduction automatique, de reconnaissance vocale et de génération de contenu dans les langues autochtones, inuktitut, cri, innu-aimun, atikamekw et d'autres, peuvent contribuer à la vitalité de ces langues menacées. Mais ces projets doivent être menés par les communautés elles-mêmes ou en partenariat étroit avec elles, et les corpus linguistiques doivent rester sous leur contrôle. La gestion du territoire et des ressources naturelles peut être améliorée par l'IA. L'analyse d'images satellites, la modélisation climatique et la surveillance environnementale par l'IA peuvent appuyer les communautés autochtones dans la protection de leurs territoires traditionnels et dans l'exercice de leurs droits de gardiennat. Les services de santé dans les communautés éloignées peuvent être enrichis par la télémédecine assistée par l'IA, les outils de diagnostic à distance et les systèmes de triage intelligents, à condition que ces systèmes soient adaptés aux réalités culturelles et linguistiques des communautés. ## Vers une gouvernance inclusive La gouvernance de l'IA au Québec doit activement intégrer les perspectives autochtones. Cela implique plusieurs engagements concrets. La consultation et la participation des Premiers Peuples dans l'élaboration des politiques et des cadres de gouvernance de l'IA doivent être systématiques et significatives, pas symboliques. Les processus de consultation doivent respecter les protocoles culturels des communautés et leur laisser le temps nécessaire pour une participation éclairée. L'intégration des principes de souveraineté des données autochtones dans le cadre réglementaire québécois est nécessaire. Les obligations de la Loi 25 en matière de protection des renseignements personnels devraient être renforcées pour tenir compte des droits collectifs des communautés autochtones sur leurs données. Le soutien au développement de capacités en IA au sein des communautés autochtones est essentiel pour que ces communautés puissent être des acteurs, et non seulement des sujets, de la révolution de l'IA. Des programmes de formation, des partenariats de recherche et un soutien financier ciblé sont nécessaires. La création de mécanismes de recours accessibles et culturellement appropriés pour les communautés autochtones affectées par des systèmes d'IA doit être envisagée. ## Conclusion La gouvernance de l'IA au Québec sera jugée, en partie, à l'aune de sa capacité à protéger les droits et à respecter les aspirations des Premiers Peuples. L'histoire du Québec est marquée par l'exclusion des peuples autochtones des processus décisionnels qui les concernent. La gouvernance de l'IA offre l'occasion de rompre avec ce schéma en construisant un cadre véritablement inclusif, fondé sur le respect, la réciprocité et la reconnaissance de la souveraineté autochtone sur les données et les technologies qui touchent leurs communautés. --- ### L'écosystème montréalais de l'IA : un pôle mondial et ses responsabilités en matière de gouvernance - URL : https://gouvernance.ai/actualites/ecosysteme-montrealais-ia - Date : 2026-01-24 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : Montréal, écosystème, Mila, recherche, start-ups, talents, innovation - Résumé : Montréal est l'un des principaux pôles mondiaux de l'IA. Cette position de leader comporte des responsabilités accrues en matière de gouvernance. Analyse de l'écosystème et de ses enjeux. ## Montréal, capitale de l'IA Montréal s'est établie comme l'un des principaux pôles mondiaux de l'intelligence artificielle. Cette concentration exceptionnelle de talents, d'institutions de recherche, d'entreprises et de capital-risque fait de la métropole québécoise un lieu unique où se conjuguent l'avancée des frontières de la science et l'émergence d'un écosystème commercial dynamique. Mais cette position de leader comporte aussi des responsabilités accrues en matière de gouvernance : les technologies développées à Montréal ont des répercussions qui dépassent largement les frontières du Québec. ## Les piliers de l'écosystème L'écosystème montréalais de l'IA repose sur plusieurs piliers interconnectés. Mila constitue le cœur scientifique de cet écosystème. Avec des centaines de chercheurs et d'étudiants affiliés, l'institut est à la pointe de la recherche en apprentissage profond, en apprentissage par renforcement et en traitement du langage naturel. Ses travaux font l'objet de publications dans les conférences les plus prestigieuses du domaine. L'engagement de Mila en faveur de l'IA sûre et bénéfique, porté notamment par Yoshua Bengio, a contribué à positionner l'éthique de l'IA comme un sujet de premier plan dans la communauté scientifique internationale. IVADO joue un rôle charnière entre la recherche et l'application. En fédérant l'expertise de l'Université de Montréal, de Polytechnique Montréal et de HEC Montréal, l'institut favorise la valorisation des avancées scientifiques dans tous les secteurs de l'économie. Ses programmes de formation, ses projets de recherche partenariale et ses initiatives de transfert technologique contribuent à diffuser les connaissances et les compétences en IA dans le tissu économique québécois. Scale AI accélère l'adoption de l'IA dans les chaînes d'approvisionnement et les entreprises canadiennes. En finançant des projets collaboratifs et des programmes de formation, la supergrappe contribue à combler le fossé entre le potentiel technologique et la réalité des entreprises. Le CEIMIA (Centre d'expertise international de Montréal pour l'avancement de l'intelligence artificielle), issu du Partenariat mondial sur l'intelligence artificielle (PMIA), contribue à la coopération internationale en matière de gouvernance de l'IA et positionne Montréal comme un acteur incontournable du dialogue mondial sur le sujet. ## Les acteurs industriels L'écosystème montréalais comprend un tissu d'entreprises diversifié. Les grandes entreprises technologiques internationales, Google DeepMind, Meta (FAIR), Microsoft, Samsung, ont établi des laboratoires de recherche à Montréal, attirés par la proximité des meilleurs chercheurs et par un environnement fiscal et réglementaire favorable. Des entreprises québécoises d'IA se sont développées dans des domaines variés : Element AI (devenue ServiceNow), Coveo, Dialogue, Imagia, Breakthroughfuel, et bien d'autres. Ces entreprises illustrent la diversité des applications de l'IA, de la recherche d'entreprise à la télésanté en passant par l'imagerie médicale et la logistique. L'écosystème de start-ups est alimenté par un réseau d'incubateurs et d'accélérateurs, District 3, Creative Destruction Lab, NextAI, Centech, qui accompagnent les entrepreneurs dans la transformation de leurs idées en entreprises viables. Le financement par capital-risque est soutenu par des fonds spécialisés et par des programmes gouvernementaux. ## La gouvernance au cœur de l'écosystème La concentration d'expertise en IA à Montréal crée une responsabilité particulière en matière de gouvernance. Les technologies développées dans l'écosystème montréalais sont déployées dans le monde entier, dans des contextes sociaux, politiques et culturels variés. Les développeurs et les chercheurs montréalais ont une obligation de considérer les impacts globaux de leurs travaux. Plusieurs initiatives de l'écosystème montréalais témoignent de cette prise de conscience. La Déclaration de Montréal pour un développement responsable de l'IA a établi un cadre éthique de référence. Les travaux de Mila sur l'IA sûre et bénéfique intègrent des considérations de gouvernance dans la recherche fondamentale. IVADO Labs a développé des méthodologies d'évaluation de l'équité algorithmique. L'OBVIA contribue à la compréhension des impacts sociétaux de l'IA. L'engagement de Yoshua Bengio dans le plaidoyer pour la réglementation de l'IA au niveau international, y compris ses appels à un moratoire sur le développement de systèmes d'IA avancés et ses contributions aux consultations gouvernementales, illustre la responsabilité que certains leaders de l'écosystème montréalais assument dans le débat mondial sur la gouvernance de l'IA. ## Les défis de gouvernance de l'écosystème La coexistence d'acteurs aux intérêts divergents au sein de l'écosystème soulève des enjeux de gouvernance interne. Les tensions entre les impératifs de la recherche ouverte et les intérêts commerciaux de confidentialité, entre la volonté de réglementer et la crainte de freiner l'innovation, entre les valeurs éthiques affirmées et les pressions économiques sont inhérentes à un écosystème aussi dynamique. La fuite des cerveaux vers les grandes entreprises technologiques internationales, qui offrent des rémunérations largement supérieures à celles du milieu académique, fragilise le pilier de recherche fondamentale de l'écosystème. Les politiques de rétention des talents, bourses, conditions de travail, possibilités de valorisation commerciale, sont essentielles pour maintenir la masse critique de chercheurs qui fait la force de Montréal. La concentration géographique de l'écosystème à Montréal soulève des questions d'équité territoriale. Les retombées économiques et sociales de l'IA bénéficient principalement à la métropole, alors que les régions du Québec ont également besoin d'accéder aux compétences et aux technologies d'IA pour leur développement. ## Le rayonnement international et la gouvernance mondiale L'écosystème montréalais est un acteur important du dialogue international sur la gouvernance de l'IA. La présence du CEIMIA à Montréal, la participation active des chercheurs québécois aux consultations internationales et l'influence de la Déclaration de Montréal positionnent le Québec comme un contributeur significatif aux efforts mondiaux de régulation de l'IA. Cette position comporte des opportunités et des responsabilités. Le Québec peut contribuer à façonner les normes internationales de gouvernance de l'IA en apportant sa perspective distincte, fondée sur les valeurs de solidarité, d'équité et de diversité culturelle. Mais il doit aussi s'assurer que sa propre gouvernance de l'IA est exemplaire et cohérente avec les principes qu'il promeut à l'international. ## Conclusion L'écosystème montréalais de l'IA est un atout exceptionnel pour le Québec. Sa vitalité, sa diversité et son rayonnement international font de Montréal un lieu privilégié pour le développement et la gouvernance de l'intelligence artificielle. Mais cet écosystème ne peut prospérer durablement que s'il assume pleinement ses responsabilités envers la société. L'excellence scientifique et le succès commercial doivent s'accompagner d'un engagement indéfectible envers l'éthique, la transparence et le bien commun. --- ### Le Sommet de Paris sur l'IA (février 2025) : ce que le Québec doit retenir - URL : https://gouvernance.ai/actualites/sommet-paris-ia-2025-quebec - Date : 2026-01-23 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : Sommet de Paris, géopolitique, coopération internationale, francophonie, développement durable - Résumé : Le Sommet de Paris sur l'IA a réuni chefs d'État et leaders technologiques. Déclaration, instituts de sécurité, divisions géopolitiques : ce que le Québec doit retenir de cet événement charnière. ## Un moment charnière pour la gouvernance mondiale de l'IA Le Sommet pour l'action sur l'intelligence artificielle, tenu à Paris les 10 et 11 février 2025, a réuni des chefs d'État, des dirigeants d'entreprises technologiques, des chercheurs et des représentants de la société civile pour définir les contours de la gouvernance mondiale de l'IA. Succédant aux sommets de Bletchley Park (2023) et de Séoul (2024), le Sommet de Paris a marqué une étape significative en élargissant la conversation au-delà de la sécurité pour aborder les enjeux d'équité, de durabilité et de gouvernance inclusive. Pour le Québec, les résultats de ce sommet offrent des orientations et des opportunités stratégiques. ## Les résultats principaux Le Sommet de Paris a produit plusieurs résultats concrets. La Déclaration sur l'IA, signée par une majorité de participants, réaffirme les principes d'une IA ouverte, inclusive et éthique. Elle souligne la nécessité d'une gouvernance internationale coordonnée tout en respectant les approches nationales et régionales. Toutefois, la déclaration n'a pas fait l'unanimité : les États-Unis et le Royaume-Uni se sont abstenus de la signer, invoquant des préoccupations relatives à la compétitivité et à l'innovation. L'annonce de la création d'un réseau d'instituts de sécurité de l'IA (AI Safety Institutes) a été l'un des développements les plus significatifs. Ce réseau vise à coordonner les efforts de recherche et d'évaluation de la sécurité des systèmes d'IA avancés à l'échelle internationale. La participation du Canada à ce réseau est directement pertinente pour le Québec. L'engagement en faveur de l'IA pour le développement durable a été un thème central. Plusieurs initiatives ont été lancées pour orienter le développement de l'IA vers la résolution des grands défis mondiaux, changements climatiques, santé, éducation, plutôt que vers la seule maximisation des profits. La question de l'IA et du monde du travail a fait l'objet de discussions approfondies. Les participants ont reconnu la nécessité de politiques proactives pour gérer la transition du marché du travail face à l'automatisation par l'IA, incluant des investissements massifs dans la formation et la reconversion professionnelle. ## Les divisions géopolitiques révélées Le Sommet de Paris a mis en lumière les profondes divisions géopolitiques qui traversent la gouvernance de l'IA. L'approche américaine, sous l'administration Trump, privilégie la dérégulation et la compétitivité, arguant que des réglementations trop strictes freineraient l'innovation et avantageraient la Chine. L'approche européenne, incarnée par l'AI Act, mise sur la réglementation fondée sur les risques et la protection des droits fondamentaux. La Chine poursuit sa propre voie, avec une réglementation sectorielle qui vise à contrôler l'IA tout en soutenant son développement stratégique. Ces divisions rendent la construction d'un cadre de gouvernance mondial cohérent extrêmement difficile. Le Québec évolue dans cet environnement fragmenté et doit en tenir compte dans l'élaboration de sa propre approche. ## Les leçons pour le Québec Plusieurs enseignements du Sommet de Paris sont directement exploitables par le Québec. La validation de l'approche fondée sur les risques renforce la pertinence d'un cadre québécois qui calibre les obligations en fonction des niveaux de risque des systèmes d'IA. Le consensus émergent autour de cette approche, malgré les désaccords sur les détails, offre au Québec une base solide pour concevoir son propre modèle. L'importance de la coopération internationale est un message clair du sommet. Le Québec ne peut pas gouverner l'IA en vase clos. La participation active aux forums internationaux, aux réseaux de recherche et aux initiatives de normalisation est indispensable pour rester informé, influencer les développements et assurer l'interopérabilité du cadre québécois avec les cadres internationaux. La dimension francophone de la gouvernance de l'IA, mise en avant par la présidence française du sommet, est une opportunité pour le Québec. La province peut jouer un rôle de leadership dans le développement d'outils d'IA en français, de corpus de données francophones et de normes de gouvernance qui tiennent compte des spécificités linguistiques et culturelles de la francophonie. Le lien entre IA et développement durable ouvre des perspectives pour le Québec, qui dispose d'avantages significatifs en énergie propre pour alimenter les infrastructures d'IA. Le positionnement du Québec comme lieu de développement d'une IA durable, alimentée par l'hydroélectricité et encadrée par une gouvernance responsable, pourrait constituer un avantage compétitif distinctif. ## L'IA inclusive : un enjeu pour le Québec Le Sommet de Paris a mis en relief l'enjeu de l'inclusivité dans le développement et la gouvernance de l'IA. Les pays du Sud global, les petites et moyennes entreprises, les communautés linguistiques minoritaires et les populations vulnérables risquent d'être marginalisés dans la révolution de l'IA si des mesures proactives ne sont pas prises. Pour le Québec, cet enjeu se traduit de plusieurs manières. Les communautés autochtones du Québec doivent être associées au développement et à la gouvernance de l'IA, en particulier lorsque des systèmes d'IA sont déployés dans des domaines qui les concernent, santé, services sociaux, gestion du territoire. Les PME québécoises doivent avoir accès à des outils d'IA abordables et à un accompagnement adapté. Les travailleurs dont les emplois sont menacés par l'automatisation doivent bénéficier de programmes de transition inclusifs. ## Les engagements du Canada au sommet Le Canada a participé activement au Sommet de Paris, réaffirmant son engagement en faveur d'une approche responsable de l'IA. Les engagements canadiens incluent la participation au réseau international d'instituts de sécurité de l'IA, le soutien au développement de normes internationales et la poursuite des investissements dans la recherche en IA. Le Québec devrait veiller à ce que les engagements pris par le Canada au niveau international se traduisent en actions concrètes qui bénéficient à la province, notamment en matière de financement de la recherche, de développement de l'infrastructure et de protection des droits. ## Conclusion Le Sommet de Paris sur l'IA a confirmé que la gouvernance de l'intelligence artificielle est devenue un enjeu géopolitique de premier plan. Dans ce paysage complexe, le Québec dispose d'atouts significatifs, expertise en recherche, tradition éthique, énergie propre, bilinguisme, qui peuvent lui permettre de jouer un rôle influent. Mais cela exige une stratégie claire, des investissements ciblés et une participation active aux forums internationaux où les règles du jeu sont en train d'être écrites. --- ### La gouvernance de l'IA dans le secteur public québécois - URL : https://gouvernance.ai/actualites/gouvernance-ia-secteur-public-quebec - Date : 2026-01-20 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : secteur public, administration, services publics, gouvernement, transparence, citoyens - Résumé : Le gouvernement du Québec intègre progressivement l'IA dans ses services. Cette transformation promet des gains d'efficacité mais soulève des enjeux spécifiques liés au rôle de l'État et aux droits des citoyens. ## L'État québécois face à la transformation algorithmique Le gouvernement du Québec, comme les administrations publiques du monde entier, intègre progressivement l'intelligence artificielle dans ses opérations et ses services aux citoyens. Cette transformation numérique de l'État promet des gains d'efficacité, une meilleure allocation des ressources et des services plus personnalisés. Mais elle soulève aussi des enjeux de gouvernance spécifiques, liés au rôle particulier de l'État dans la société et aux obligations renforcées qui en découlent. ## Les applications de l'IA dans l'administration québécoise L'administration publique québécoise explore et déploie l'IA dans de nombreux domaines. Les services de première ligne, comme les centres d'appels gouvernementaux, utilisent des agents conversationnels pour répondre aux questions fréquentes des citoyens. Les systèmes de gestion des dossiers exploitent l'IA pour automatiser le tri et l'orientation des demandes. L'analyse prédictive aide à anticiper les besoins en services sociaux, en santé publique et en sécurité publique. Revenu Québec, la Société de l'assurance automobile du Québec (SAAQ), la Régie de l'assurance maladie du Québec (RAMQ) et d'autres organismes gouvernementaux traitent des millions de transactions et de dossiers chaque année. L'IA peut contribuer à améliorer la rapidité et la qualité du traitement de ces dossiers, à détecter les fraudes et les erreurs, et à personnaliser les interactions avec les citoyens. Le Secrétariat du Conseil du trésor et le ministère de la Cybersécurité et du Numérique jouent un rôle de coordination dans la stratégie numérique du gouvernement. Des cadres de référence pour l'utilisation responsable de l'IA dans l'administration publique ont été développés pour guider les ministères et organismes dans leurs projets. ## Les obligations renforcées du secteur public L'utilisation de l'IA par le secteur public est soumise à des obligations plus strictes que dans le secteur privé, en raison de la relation particulière entre l'État et les citoyens. Le principe de légalité administrative exige que les décisions de l'administration soient prises conformément au droit et qu'elles soient motivées. L'utilisation de l'IA dans les processus décisionnels administratifs doit respecter ce principe. Un algorithme ne peut pas prendre une décision qui outrepasse les pouvoirs conférés par la loi, et les motifs de la décision doivent pouvoir être articulés et communiqués. Le droit à l'équité procédurale, reconnu par la Charte des droits et libertés de la personne et par le droit administratif, exige que les personnes affectées par une décision administrative aient la possibilité d'être entendues avant que la décision ne soit prise. L'automatisation des décisions ne peut pas supprimer cette garantie fondamentale. La Loi sur l'accès aux documents des organismes publics impose la transparence sur les processus décisionnels gouvernementaux. Les systèmes d'IA utilisés par les organismes publics devraient, en principe, être accessibles à l'examen public, sous réserve des exceptions prévues par la loi (sécurité nationale, renseignements personnels de tiers, etc.). L'obligation de service dans les deux langues officielles (pour les organismes assujettis) et en français comme langue de l'Administration, conformément à la Charte de la langue française, s'applique aux services fournis par des systèmes d'IA. Les citoyens ont le droit de recevoir des services de qualité en français, ce qui impose des exigences de performance linguistique aux systèmes d'IA déployés dans les services publics. ## Les risques spécifiques du secteur public L'utilisation de l'IA dans le secteur public comporte des risques spécifiques qui exigent une gouvernance adaptée. Le risque d'automatisation des inégalités est particulièrement préoccupant dans les services publics. Les systèmes d'IA utilisés pour allouer des ressources, évaluer l'admissibilité à des programmes sociaux ou cibler des inspections peuvent reproduire ou amplifier des inégalités systémiques. Les personnes les plus vulnérables, bénéficiaires de programmes sociaux, personnes ayant des problèmes de santé, communautés marginalisées, sont souvent les plus affectées par les décisions algorithmiques de l'État. Le risque d'érosion de la discrétion administrative est un enjeu plus subtil. La discrétion administrative, le pouvoir des agents publics d'exercer leur jugement dans l'application des règles, est un mécanisme important de flexibilité et d'humanité dans l'administration publique. L'automatisation des décisions peut réduire cette discrétion, conduisant à une application rigide et décontextualisée des règles. Le risque de dépendance technologique est accentué dans le secteur public. La dépendance envers des fournisseurs privés pour des systèmes d'IA critiques soulève des questions de souveraineté, de continuité de service et de contrôle démocratique. Les contrats de développement et d'exploitation de systèmes d'IA dans le secteur public doivent inclure des clauses de propriété intellectuelle, de transfert de compétences et de réversibilité. ## Les cadres de référence existants Le gouvernement du Québec a développé plusieurs outils pour encadrer l'utilisation de l'IA dans l'administration publique. Le cadre de référence pour l'utilisation éthique et responsable de l'IA dans l'administration publique établit des principes directeurs et des pratiques recommandées. La Stratégie de transformation numérique gouvernementale intègre l'IA dans une vision plus large de modernisation de l'État. Ces cadres sont des avancées significatives, mais leur efficacité dépend de leur mise en œuvre effective. Les ministères et organismes doivent disposer des compétences, des ressources et des mécanismes de contrôle nécessaires pour appliquer ces cadres dans la pratique. Un suivi régulier et une évaluation indépendante de la mise en œuvre sont indispensables. ## La participation citoyenne La gouvernance de l'IA dans le secteur public doit intégrer des mécanismes de participation citoyenne. Les citoyens ont un droit légitime de regard sur les systèmes algorithmiques qui affectent leur accès aux services publics et leurs interactions avec l'État. Des consultations publiques, des panels citoyens et des mécanismes de rétroaction doivent être mis en place pour s'assurer que les valeurs et les préoccupations des citoyens sont prises en compte. Le Protecteur du citoyen, institution indépendante chargée de veiller au respect des droits des citoyens dans leurs relations avec l'administration publique, pourrait voir son rôle élargi pour englober la surveillance des systèmes d'IA gouvernementaux. Cette institution dispose de la légitimité et de l'indépendance nécessaires pour exercer un contrôle externe sur les pratiques algorithmiques de l'État. ## Les marchés publics et l'IA L'encadrement des marchés publics liés à l'IA est un enjeu de gouvernance important. Les processus d'appel d'offres et d'attribution de contrats pour des systèmes d'IA doivent intégrer des critères de responsabilité, de transparence et d'équité. Les cahiers des charges doivent spécifier des exigences en matière d'auditabilité des algorithmes, de protection des données, de performance équitable pour tous les groupes de la population et de conformité avec le cadre juridique québécois. ## Recommandations Pour renforcer la gouvernance de l'IA dans le secteur public québécois, il serait souhaitable de créer un organisme ou une unité spécialisée chargée de coordonner et de superviser l'utilisation de l'IA dans l'ensemble de l'administration, de rendre obligatoire la publication d'évaluations d'impact algorithmique pour tout système d'IA à haut risque déployé dans le secteur public, d'établir un registre public des systèmes d'IA utilisés par les organismes gouvernementaux, d'investir dans le développement des compétences en IA au sein de la fonction publique, et de mettre en place des mécanismes de recours accessibles pour les citoyens affectés par des décisions algorithmiques. ## Conclusion Le secteur public québécois a la responsabilité de montrer l'exemple en matière de gouvernance de l'IA. Les citoyens ne choisissent pas leurs interactions avec l'État : ils y sont soumis. Cette asymétrie de pouvoir impose une exigence de transparence, d'équité et de responsabilité accrue. L'IA peut améliorer la qualité des services publics, mais seulement si elle est gouvernée avec la rigueur et la prudence que commande sa position au cœur de la relation entre l'État et les citoyens. --- ### Gouvernance de l'IA générative en entreprise : guide pratique pour les organisations québécoises - URL : https://gouvernance.ai/actualites/gouvernance-ia-generative-entreprise - Date : 2026-01-19 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : IA générative, politique, shadow AI, fuite de données, hallucinations, Loi 25, formation - Résumé : ChatGPT, Claude, Copilot : l'IA générative s'est imposée dans les organisations, souvent sans encadrement. Guide pratique pour élaborer une politique de gouvernance adaptée aux réalités québécoises. ## L'IA générative dans le quotidien des organisations L'IA générative, les systèmes capables de produire du texte, des images, du code, de l'audio et de la vidéo, s'est imposée dans les organisations québécoises à une vitesse sans précédent. ChatGPT, Claude, Gemini, Copilot et leurs équivalents spécialisés sont utilisés quotidiennement par une proportion croissante d'employés, souvent sans encadrement formel de la part de leur employeur. Cette adoption rapide et parfois sauvage, le « shadow AI », crée des risques que seule une gouvernance structurée peut maîtriser. ## Les risques spécifiques de l'IA générative L'IA générative présente des risques distincts des systèmes d'IA traditionnels, qui exigent des réponses de gouvernance adaptées. La fuite de données confidentielles est le risque le plus immédiat. Lorsqu'un employé saisit des informations sensibles, données clients, secrets commerciaux, stratégies d'entreprise, renseignements personnels, dans un outil d'IA générative externe, ces informations quittent le périmètre de sécurité de l'organisation. Même si les fournisseurs affirment ne pas utiliser ces données pour entraîner leurs modèles, le risque de fuite, de piratage ou de divulgation accidentelle existe. Plusieurs cas documentés d'employés ayant accidentellement partagé du code source propriétaire ou des données financières confidentielles avec des systèmes d'IA générative ont été rapportés. La génération de contenu inexact, les « hallucinations », pose des risques de réputation et de responsabilité juridique. Un document produit par l'IA qui contient des informations fausses, des citations inventées ou des analyses erronées peut, s'il est diffusé sans vérification, causer des préjudices significatifs. Dans des domaines réglementés comme la finance, la santé ou le droit, les conséquences peuvent être particulièrement graves. Les enjeux de propriété intellectuelle sont multiples. Le contenu généré par l'IA peut reproduire, même involontairement, des éléments d'œuvres protégées présentes dans les données d'entraînement. L'utilisation de ces contenus expose l'organisation à des risques de violation du droit d'auteur. Inversement, la protection par le droit d'auteur des contenus produits avec l'assistance de l'IA est incertaine. Les biais dans les contenus générés reflètent les biais présents dans les données d'entraînement des modèles. Des communications marketing, des descriptions de postes, des analyses de candidatures ou des documents internes produits par l'IA peuvent contenir des stéréotypes ou des formulations discriminatoires. ## L'élaboration d'une politique d'IA générative Chaque organisation québécoise qui n'a pas encore adopté une politique formelle d'utilisation de l'IA générative devrait le faire sans délai. Cette politique doit être claire, pratique et adaptée à la réalité de l'organisation. La politique devrait définir les outils d'IA générative approuvés par l'organisation, en distinguant les outils d'entreprise, déployés dans l'infrastructure de l'organisation, avec des garanties contractuelles de confidentialité, des outils publics, accessibles en ligne sans contrôle de l'organisation sur les données. La classification des données est un pilier de la politique. Les employés doivent savoir quelles catégories de données peuvent être utilisées avec quels outils. Une classification simple, données publiques, données internes, données confidentielles, données réglementées, avec des règles claires pour chaque catégorie, est plus efficace qu'un cadre complexe qui ne sera pas appliqué. Les cas d'usage autorisés et interdits doivent être explicites. La rédaction de courriels internes, la synthèse de documents publics, la génération de premières ébauches de textes peuvent être autorisées avec des outils approuvés. La saisie de données personnelles de clients, de secrets commerciaux ou de documents sous embargo doit être explicitement interdite dans les outils non sécurisés. L'obligation de vérification humaine est fondamentale. Tout contenu produit par l'IA générative et destiné à être utilisé à l'extérieur de l'organisation, ou pour des décisions internes importantes, doit être revu et validé par un humain compétent avant sa diffusion. ## La mise en œuvre technique La mise en œuvre technique de la gouvernance de l'IA générative comprend plusieurs dimensions. Le déploiement d'outils d'entreprise sécurisés permet de fournir aux employés des capacités d'IA générative dans un environnement contrôlé. Les solutions d'IA générative d'entreprise, Azure OpenAI Service, Amazon Bedrock, les solutions de déploiement privé, offrent des garanties de confidentialité et de contrôle des données que les outils publics ne fournissent pas. Les systèmes de prévention de la fuite de données (DLP) peuvent être configurés pour détecter et bloquer la transmission de données sensibles vers des outils d'IA générative externes. La journalisation des interactions avec les systèmes d'IA permet un audit a posteriori et la détection d'usages non conformes. L'intégration de la gouvernance de l'IA générative dans les processus existants de gestion des risques, de conformité et de sécurité de l'information évite la création de silos et assure une cohérence d'ensemble. ## La conformité avec la Loi 25 L'utilisation de l'IA générative doit s'inscrire dans le respect de la Loi 25. Lorsque des renseignements personnels sont traités par un système d'IA générative, les obligations de la Loi 25 s'appliquent pleinement : le consentement des personnes concernées, la limitation de la collecte au nécessaire, la transparence sur l'utilisation des données et la sécurité des renseignements. L'évaluation des facteurs relatifs à la vie privée (EFVP) est requise avant le déploiement de tout projet impliquant des renseignements personnels et de l'IA générative. Le responsable de la protection des renseignements personnels de l'organisation doit être impliqué dans la gouvernance de l'IA générative. La communication transfrontalière de renseignements personnels est un enjeu particulier. Lorsque les systèmes d'IA générative sont hébergés à l'extérieur du Québec, ce qui est fréquemment le cas, le transfert de renseignements personnels vers ces systèmes constitue une communication à l'extérieur du Québec, soumise aux exigences de la Loi 25 en matière de protection équivalente. ## La formation et la culture organisationnelle La gouvernance de l'IA générative ne peut reposer uniquement sur des politiques et des outils techniques. La formation des employés est essentielle pour développer une compréhension des capacités et des limites de l'IA générative, une conscience des risques associés à son utilisation, des compétences pratiques pour utiliser ces outils de manière efficace et responsable, et un réflexe de vérification critique des contenus générés. La culture organisationnelle doit évoluer pour intégrer l'IA générative comme un outil parmi d'autres, ni surestimé ni diabolisé. Le leadership doit donner l'exemple en utilisant l'IA générative de manière responsable et en valorisant la vigilance plutôt que la productivité à tout prix. ## Conclusion L'IA générative est déjà dans les organisations québécoises, qu'elles le veuillent ou non. La question n'est plus de savoir si les employés utiliseront ces outils, mais comment les organisations les encadreront. Une gouvernance proactive, pratique et proportionnée est la meilleure réponse : elle protège l'organisation contre les risques tout en lui permettant de tirer parti des gains de productivité et de créativité que l'IA générative peut offrir. --- ### L'intelligence artificielle et le marché du travail québécois : anticiper les transformations - URL : https://gouvernance.ai/actualites/ia-marche-travail-quebec - Date : 2026-01-16 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : emploi, marché du travail, automatisation, formation, syndicats, PME, requalification - Résumé : L'IA transforme le marché du travail québécois dans un contexte de pénurie de main-d'œuvre et de vieillissement démographique. Automatisation, surveillance algorithmique, requalification : les enjeux clés. ## Un marché du travail en mutation profonde L'intelligence artificielle transforme le marché du travail à une vitesse et avec une ampleur sans précédent. Au Québec, cette transformation s'opère dans un contexte particulier : pénurie de main-d'œuvre structurelle, vieillissement démographique accéléré, économie diversifiée avec un tissu de PME important et un secteur manufacturier significatif. La gouvernance de l'impact de l'IA sur l'emploi et les conditions de travail est un enjeu stratégique pour l'avenir économique et social du Québec. ## L'état des lieux au Québec Le marché du travail québécois connaît une transformation numérique qui s'accélère. L'automatisation touche des secteurs variés : le commerce de détail avec les caisses automatiques et les systèmes de recommandation, le secteur manufacturier avec la robotique avancée et la maintenance prédictive, les services financiers avec le traitement automatisé des demandes et la détection de fraude, le transport et la logistique avec l'optimisation des routes et les systèmes autonomes, et les services professionnels avec les outils d'aide à la rédaction, à l'analyse et à la recherche. Contrairement aux vagues d'automatisation précédentes, qui touchaient principalement les tâches manuelles et répétitives, l'IA contemporaine, en particulier l'IA générative, affecte aussi des emplois à forte composante cognitive. Les professions liées à la rédaction, à la traduction, au graphisme, à la programmation et à l'analyse de données sont directement touchées. Cette évolution modifie la cartographie des emplois vulnérables et des compétences recherchées. ## Les impacts sur l'emploi : au-delà des prédictions alarmistes Les prévisions sur l'impact de l'IA sur l'emploi varient considérablement selon les méthodologies et les hypothèses retenues. Certaines études projettent des pertes d'emplois massives, tandis que d'autres soulignent le potentiel de création de nouveaux emplois et de transformation des emplois existants. La réalité est probablement plus nuancée. L'IA ne remplace pas tant des emplois que des tâches. La plupart des emplois sont composés d'un ensemble de tâches, dont certaines sont automatisables et d'autres non. L'automatisation de certaines tâches peut libérer du temps pour des activités à plus forte valeur ajoutée, transformer la nature d'un emploi sans le supprimer, ou créer de nouveaux besoins en compétences complémentaires à l'IA. Pour le Québec, la pénurie de main-d'œuvre constitue un facteur modérateur important. Dans un contexte où de nombreux secteurs peinent à recruter, l'automatisation peut être perçue moins comme une menace que comme une solution pour maintenir la productivité et la compétitivité. Toutefois, cette perspective ne doit pas occulter les enjeux de transition pour les travailleurs dont les tâches sont automatisées et les risques de creusement des inégalités entre travailleurs qualifiés et non qualifiés. ## Les enjeux de gouvernance L'utilisation de l'IA dans la gestion des ressources humaines soulève des enjeux de gouvernance spécifiques. Les systèmes de tri automatisé des candidatures, de plus en plus répandus, peuvent reproduire des biais de genre, d'origine ethnique ou d'âge présents dans les données historiques de recrutement. La Charte des droits et libertés de la personne interdit la discrimination dans l'embauche, et cette interdiction s'applique pleinement aux décisions assistées par l'IA. La surveillance algorithmique des travailleurs est un enjeu émergent. Des outils d'IA permettent de surveiller la productivité des employés, d'analyser leurs communications, de mesurer leur engagement et de prédire leur risque de départ. Ces pratiques soulèvent des questions fondamentales en matière de respect de la vie privée au travail et de dignité des travailleurs. Le cadre juridique québécois, notamment la Loi sur la protection des renseignements personnels dans le secteur privé et les dispositions du Code civil sur le respect de la vie privée, encadre ces pratiques, mais son application aux nouvelles formes de surveillance algorithmique doit être clarifiée. L'évaluation automatisée de la performance des employés, fondée sur des métriques algorithmiques, peut créer des pressions indues et déshumaniser la relation de travail. Les conventions collectives et les normes du travail doivent être adaptées pour protéger les travailleurs contre les excès de la gestion algorithmique. ## La formation et la requalification La formation professionnelle et la requalification de la main-d'œuvre constituent le levier le plus important pour répondre aux transformations du marché du travail induites par l'IA. Le Québec dispose d'un réseau d'institutions de formation, cégeps, universités, organismes de formation continue, comités sectoriels de main-d'œuvre, qui doit être mobilisé pour accompagner les travailleurs dans cette transition. La Commission des partenaires du marché du travail (CPMT) et les comités sectoriels de main-d'œuvre ont un rôle clé à jouer dans l'identification des besoins en compétences, la conception de programmes de formation adaptés et le soutien aux travailleurs en transition. Le Fonds de développement et de reconnaissance des compétences de la main-d'œuvre, alimenté par la contribution des employeurs (la loi du 1 %), constitue un outil de financement important pour la formation continue. Les programmes de formation doivent aller au-delà des compétences techniques en IA. Les compétences transversales, pensée critique, créativité, communication, collaboration, résolution de problèmes complexes, seront de plus en plus valorisées dans un marché du travail où l'IA prend en charge les tâches routinières. La littératie numérique et la capacité à travailler avec des outils d'IA constituent des compétences de base que tous les travailleurs devraient acquérir. ## Le rôle des syndicats et des relations de travail Les syndicats québécois ont un rôle important à jouer dans la gouvernance de l'IA au travail. La négociation collective est un mécanisme privilégié pour encadrer l'introduction de technologies d'IA en milieu de travail, protéger les droits des travailleurs et assurer une répartition équitable des bénéfices de l'automatisation. Certaines conventions collectives intègrent déjà des clauses relatives à l'introduction de nouvelles technologies, prévoyant des mécanismes de consultation, de formation et de reclassement. Ces clauses doivent être renforcées et adaptées au contexte spécifique de l'IA, en incluant des dispositions sur la transparence des systèmes algorithmiques utilisés en gestion des ressources humaines, le droit des travailleurs à comprendre et à contester les décisions algorithmiques les concernant, la protection contre la surveillance excessive, les engagements en matière de formation et de requalification, et le partage des gains de productivité liés à l'automatisation. ## L'IA et l'entrepreneuriat au Québec L'IA offre également des opportunités pour l'entrepreneuriat au Québec. La demande croissante pour des solutions d'IA adaptées aux besoins des entreprises québécoises, notamment en français, crée des marchés pour les start-ups et les PME innovantes. Les programmes de soutien à l'entrepreneuriat technologique, comme ceux offerts par Investissement Québec, le Mouvement Desjardins et les incubateurs universitaires, contribuent à dynamiser cet écosystème. Toutefois, l'accès des PME aux technologies d'IA reste un défi. Les coûts de développement et de déploiement, le manque de compétences internes et la difficulté à identifier les cas d'usage pertinents freinent l'adoption. Des programmes d'accompagnement et de soutien financier ciblés sont nécessaires pour démocratiser l'accès à l'IA au sein du tissu économique québécois. ## Recommandations Le Québec devrait adopter une approche proactive et concertée pour gouverner l'impact de l'IA sur le marché du travail. Cela implique de développer une veille prospective sur les transformations des emplois et des compétences, d'investir massivement dans la formation continue et la requalification, de renforcer le cadre juridique protégeant les travailleurs contre la surveillance algorithmique excessive, de favoriser le dialogue social sur l'introduction de l'IA en milieu de travail, de soutenir les PME dans leur adoption responsable de l'IA, et de s'assurer que les bénéfices économiques de l'automatisation sont partagés équitablement. ## Conclusion L'impact de l'IA sur le marché du travail québécois est un phénomène complexe qui ne se résume ni à une vision catastrophiste de destruction massive d'emplois ni à une vision béatement optimiste de création illimitée de richesse. La réalité se situera entre ces extrêmes, et c'est précisément la qualité de la gouvernance qui déterminera si le Québec saura transformer les défis de l'automatisation en opportunités pour l'ensemble de sa population. --- ### Le Québec met à jour son cadre MCN pour encadrer l'IA générative - URL : https://gouvernance.ai/actualites/cadre-mcn-ia-generative - Date : 2026-01-15 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : MCN, IA g\u00e9n\u00e9rative, cadre normatif, Qu\u00e9bec, Conseil du tr\u00e9sor, ressources informationnelles - Résumé : Le Secrétariat du Conseil du trésor publie une mise à jour du cadre de gestion des ressources informationnelles intégrant des lignes directrices spécifiques à l'IA générative. ## Une mise à jour attendue par le milieu Le **Secrétariat du Conseil du trésor du Québec** a publié en janvier 2026 une mise à jour significative du cadre de gestion en matière de ressources informationnelles, communément appelé **cadre MCN**. Cette révision intègre pour la première fois des **lignes directrices spécifiques à l'utilisation de l'IA générative** au sein des organismes publics québécois. ## Les nouveautés principales Les modifications apportées couvrent plusieurs dimensions essentielles : - **Évaluation préalable obligatoire** : Tout déploiement d'un système d'IA générative dans un organisme public doit faire l'objet d'une analyse d'impact sur la protection des renseignements personnels et d'une évaluation des risques algorithmiques. - **Registre des systèmes d'IA** : Les organismes devront tenir un inventaire à jour de tous les systèmes d'IA en usage, incluant leur finalité, leurs sources de données et les mesures de contrôle en place. - **Supervision humaine** : Le cadre réaffirme le principe de la **décision humaine finale** pour toute utilisation de l'IA générative ayant un impact sur les citoyens. - **Transparence** : Les citoyens devront être informés lorsqu'ils interagissent avec un système d'IA générative dans le cadre de services publics. ## Impacts pour le secteur privé Bien que ce cadre vise d'abord le secteur public, il établit un **standard de référence** qui influencera inévitablement les pratiques du secteur privé québécois. Les organisations qui souhaitent contracter avec le gouvernement devront démontrer leur conformité à ces nouvelles exigences. Le Cercle suivra de près l'évolution de la mise en oeuvre de ces directives et partagera ses analyses dans les prochaines publications. --- ### L'IA dans les services financiers québécois : innovation et réglementation - URL : https://gouvernance.ai/actualites/ia-services-financiers-quebec - Date : 2026-01-14 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : services financiers, Desjardins, AMF, crédit, fraude, fintech, discrimination - Résumé : Détection de fraude, évaluation du crédit, robots-conseillers : le secteur financier québécois est à la pointe de l'adoption de l'IA. Enjeux d'équité, de discrimination et de réglementation. ## Un secteur en transformation profonde Le secteur des services financiers est l'un des plus avancés dans l'adoption de l'intelligence artificielle, et le Québec ne fait pas exception. Les institutions financières québécoises, Desjardins, la Banque Nationale, iA Groupe financier, la Banque Laurentienne et les nombreuses fintechs montréalaises, déploient des systèmes d'IA dans pratiquement tous les aspects de leurs opérations. De la détection de fraude à l'évaluation du crédit, de la personnalisation des services à la gestion des risques, l'IA redéfinit la finance québécoise. Cette transformation soulève des enjeux de gouvernance considérables, à l'intersection du droit financier, de la protection des données et de l'équité. ## Les applications d'IA dans la finance québécoise La détection de fraude est l'application la plus mature de l'IA en finance. Les systèmes d'apprentissage automatique analysent en temps réel des millions de transactions pour identifier des patterns suspects, avec une précision qui surpasse largement les systèmes traditionnels fondés sur des règles statiques. Desjardins, qui a subi une importante fuite de données personnelles en 2019, a considérablement investi dans des systèmes d'IA de surveillance et de détection des fraudes. L'évaluation du crédit par l'IA permet d'analyser un éventail beaucoup plus large de données que les méthodes traditionnelles pour évaluer la solvabilité d'un emprunteur. Au-delà des antécédents de crédit classiques, les modèles d'IA peuvent intégrer des données comportementales, transactionnelles et même des données alternatives pour produire des évaluations plus fines. Cette capacité peut favoriser l'inclusion financière, en permettant d'accorder du crédit à des personnes sans historique de crédit traditionnel, mais elle peut aussi introduire des discriminations subtiles si les données utilisées reflètent des inégalités sociales existantes. La gestion des investissements fait de plus en plus appel à l'IA. Les robots-conseillers (robo-advisors) proposent des stratégies d'investissement personnalisées à une fraction du coût des conseillers humains. Les algorithmes de trading à haute fréquence exécutent des milliers de transactions par seconde. Les systèmes d'analyse de marché traitent des volumes massifs de données, communiqués financiers, nouvelles, données de marché, pour informer les décisions d'investissement. Le service client est transformé par les agents conversationnels qui traitent une proportion croissante des interactions avec les clients, répondant aux questions courantes, résolvant des problèmes simples et dirigeant les cas complexes vers des conseillers humains. ## Le cadre réglementaire applicable Les services financiers au Canada sont réglementés à deux niveaux. Au niveau fédéral, le Bureau du surintendant des institutions financières (BSIF) supervise les banques à charte fédérale. Au niveau provincial, l'Autorité des marchés financiers (AMF) du Québec réglemente les institutions financières provinciales, les assureurs, les courtiers et les gestionnaires de fonds. Le BSIF a publié des orientations sur la gestion des risques liés à l'utilisation de la technologie et de l'IA dans les institutions financières fédérales, incluant des attentes en matière de gouvernance des modèles, de gestion des données et de surveillance. L'AMF, pour sa part, suit de près l'évolution de l'IA dans le secteur financier québécois et a commencé à intégrer les enjeux de l'IA dans son cadre de surveillance. La Loi 25 s'applique pleinement aux institutions financières québécoises pour ce qui concerne la protection des renseignements personnels de leurs clients. Les obligations de transparence, de consentement et d'évaluation des risques de la Loi 25 sont particulièrement pertinentes lorsque les institutions utilisent l'IA pour traiter les données personnelles de leurs clients. ## Les enjeux d'équité et de discrimination L'utilisation de l'IA dans les décisions de crédit et d'assurance soulève des préoccupations majeures en matière d'équité. Les modèles d'apprentissage automatique, entraînés sur des données historiques, peuvent reproduire et amplifier les discriminations présentes dans ces données. Si les données montrent que certains groupes démographiques ont historiquement eu des taux de défaut plus élevés, en raison de facteurs socio-économiques systémiques, le modèle peut pénaliser les membres de ces groupes indépendamment de leur situation individuelle. La Charte des droits et libertés de la personne du Québec interdit la discrimination dans les contrats, y compris les contrats financiers. Mais la détection de discrimination algorithmique est techniquement complexe : les modèles d'IA peuvent discriminer de manière indirecte, en utilisant des variables corrélées avec des caractéristiques protégées (code postal, type d'emploi, habitudes de consommation) sans utiliser explicitement ces caractéristiques. Les organisations québécoises de défense des droits, la Commission des droits de la personne et des droits de la jeunesse, les cliniques juridiques communautaires, doivent être équipées pour détecter et contester la discrimination algorithmique dans les services financiers. ## L'IA et la conformité réglementaire Paradoxalement, l'IA est aussi un outil puissant de conformité réglementaire. Les systèmes de « RegTech » (technologie de réglementation) utilisent l'IA pour automatiser la vérification de la conformité, le suivi des changements réglementaires, la production de rapports et la détection de blanchiment d'argent. La lutte contre le blanchiment d'argent et le financement du terrorisme est un domaine où l'IA apporte une valeur considérable. Les systèmes traditionnels de surveillance, fondés sur des règles rigides, génèrent un nombre considérable de faux positifs, des alertes pour des transactions légitimes, qui mobilisent des ressources importantes pour l'investigation. Les systèmes d'IA réduisent ce taux de faux positifs tout en améliorant la détection des activités réellement suspectes. ## Les fintechs québécoises et l'IA L'écosystème fintech québécois, concentré à Montréal, est un creuset d'innovation en IA financière. Des entreprises comme Hopper (prédiction de prix de billets d'avion), Frank (gestion financière personnelle) et de nombreuses start-ups développent des applications financières propulsées par l'IA. La réglementation de ces acteurs soulève des défis spécifiques. Le cadre réglementaire financier traditionnel a été conçu pour des institutions établies, avec des processus de supervision qui ne sont pas toujours adaptés à l'innovation rapide des fintechs. Le bac à sable réglementaire (regulatory sandbox) de l'AMF permet à certaines entreprises innovantes de tester leurs produits dans un cadre réglementaire allégé, sous supervision. Ce mécanisme est un outil précieux pour concilier innovation et protection des consommateurs. ## Recommandations Le Québec devrait développer des lignes directrices spécifiques pour l'utilisation de l'IA dans les services financiers, en coordination avec l'AMF, renforcer les mécanismes de détection de la discrimination algorithmique dans les décisions de crédit et d'assurance, soutenir la formation des équipes de conformité des institutions financières aux enjeux de l'IA, encourager le développement d'outils d'audit algorithmique pour le secteur financier, et maintenir des mécanismes d'innovation réglementaire comme le bac à sable de l'AMF. ## Conclusion Les services financiers québécois sont à la pointe de l'adoption de l'IA, mais cette avance technologique doit s'accompagner d'une gouvernance à la hauteur des enjeux. L'équité, la transparence et la protection des consommateurs doivent rester au cœur de la transformation numérique du secteur financier. Le Québec, avec son cadre juridique distinct et ses institutions de surveillance, a les outils pour construire un modèle de finance augmentée par l'IA qui soit à la fois innovant et responsable. --- ### Transparence et explicabilité algorithmique : un impératif démocratique au Québec - URL : https://gouvernance.ai/actualites/transparence-explicabilite-algorithmique - Date : 2026-01-11 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : transparence, explicabilité, boîte noire, XAI, démocratie, reddition de comptes - Résumé : Les systèmes d'IA sont souvent des « boîtes noires ». Dans une société démocratique, cette opacité pose un problème fondamental. Analyse des enjeux de transparence et d'explicabilité algorithmique au Québec. ## L'opacité algorithmique comme défi démocratique Les systèmes d'intelligence artificielle, en particulier ceux fondés sur l'apprentissage profond, sont souvent qualifiés de « boîtes noires ». Leurs processus décisionnels, fondés sur des millions voire des milliards de paramètres, défient la compréhension humaine. Cette opacité pose un problème fondamental dans une société démocratique comme le Québec : comment les citoyens peuvent-ils exercer leur droit de regard sur des décisions qui les affectent si les mécanismes qui produisent ces décisions sont incompréhensibles ? ## Les dimensions de la transparence algorithmique La transparence algorithmique est un concept multidimensionnel qui englobe plusieurs exigences distinctes. La transparence sur le recours à l'IA consiste à informer les personnes qu'un système d'intelligence artificielle est utilisé dans un processus qui les concerne. Cette exigence minimale est déjà consacrée par la Loi 25 pour les décisions fondées exclusivement sur un traitement automatisé de renseignements personnels. Mais elle devrait s'étendre, dans une perspective de gouvernance responsable, à toute utilisation significative de l'IA dans les interactions avec les citoyens et les clients. L'explicabilité des décisions va plus loin que la simple notification. Elle implique la capacité de fournir une explication compréhensible des raisons pour lesquelles un système d'IA a produit un résultat donné. Pour un professionnel, il s'agit de comprendre les facteurs qui ont influencé la décision. Pour une personne affectée, il s'agit de comprendre pourquoi elle a reçu tel résultat plutôt qu'un autre. L'auditabilité concerne la possibilité pour des tiers, organismes de surveillance, auditeurs indépendants, chercheurs, d'examiner le fonctionnement d'un système d'IA pour vérifier sa conformité aux normes et aux principes éthiques. Cette dimension est essentielle pour la reddition de comptes et la confiance institutionnelle. La traçabilité implique la capacité de retracer les données, les processus et les décisions qui ont mené à un résultat donné. Elle est indispensable pour enquêter sur des problèmes, corriger des erreurs et établir les responsabilités. ## Le cadre juridique québécois en matière de transparence La Loi 25 a introduit des obligations de transparence spécifiques pour les décisions automatisées. Les organisations doivent informer les personnes concernées du fait qu'une décision a été prise de manière exclusivement automatisée et leur permettre de faire réviser cette décision. Elles doivent également être en mesure de communiquer les renseignements personnels utilisés et les raisons et principaux facteurs ayant mené à la décision. Ces obligations constituent un socle important, mais elles présentent des limites. La restriction aux décisions « exclusivement » automatisées laisse hors de portée de nombreux systèmes d'aide à la décision qui, dans les faits, exercent une influence déterminante sur les décisions finales. La notion de « raisons et principaux facteurs » reste vague et pourrait se prêter à des interprétations minimalistes. La Charte des droits et libertés de la personne du Québec, en protégeant les droits à l'égalité et à la dignité, fonde indirectement une exigence de transparence pour les systèmes d'IA susceptibles de porter atteinte à ces droits. Une personne qui fait l'objet d'une discrimination algorithmique doit être en mesure de comprendre et de contester la décision qui la concerne. ## Les défis techniques de l'explicabilité L'explicabilité algorithmique est un champ de recherche actif auquel les institutions québécoises contribuent de manière significative. Plusieurs approches coexistent. Les méthodes post hoc produisent des explications après que le modèle a pris sa décision. LIME (Local Interpretable Model-agnostic Explanations) et SHAP (SHapley Additive exPlanations) sont des techniques qui identifient les facteurs ayant le plus contribué à une décision particulière. Ces méthodes ont l'avantage de s'appliquer à n'importe quel type de modèle, mais leurs explications sont des approximations qui ne reflètent pas nécessairement le fonctionnement réel du modèle. Les modèles interprétables par conception, arbres de décision, modèles linéaires, systèmes à base de règles, offrent une transparence intrinsèque, car leurs processus décisionnels sont directement compréhensibles. Toutefois, ces modèles peuvent être moins performants que les modèles complexes pour certaines tâches. La recherche s'efforce de développer des modèles qui combinent interprétabilité et haute performance. Les explications contrefactuelles répondent à la question « qu'est-ce qui aurait dû changer pour que la décision soit différente ? ». Cette approche est particulièrement utile pour les personnes affectées par une décision, car elle leur indique les leviers d'action à leur disposition. ## La transparence dans le secteur public québécois L'utilisation de l'IA dans les organismes publics québécois soulève des exigences de transparence renforcées. La Loi sur l'accès aux documents des organismes publics garantit aux citoyens un droit d'accès aux documents détenus par les organismes publics. L'application de ce droit aux systèmes d'IA, code source, données d'entraînement, paramètres du modèle, résultats d'évaluation, est un enjeu émergent qui devra être clarifié. Plusieurs gouvernements dans le monde ont adopté des registres d'algorithmes publics, qui documentent les systèmes d'IA utilisés dans la prise de décision gouvernementale. Le Québec pourrait s'inspirer de ces initiatives pour établir un registre des systèmes d'IA déployés dans l'administration publique, décrivant leur finalité, leur fonctionnement général, les données utilisées et les mécanismes de contrôle en place. ## La transparence et le secret commercial L'un des obstacles les plus fréquemment invoqués à la transparence algorithmique est la protection du secret commercial. Les entreprises qui développent des systèmes d'IA considèrent souvent leurs algorithmes et leurs données comme des actifs stratégiques qu'elles ne souhaitent pas divulguer. Cette tension entre transparence et secret commercial est un enjeu de gouvernance majeur. Plusieurs pistes permettent de concilier ces exigences. L'audit par des tiers indépendants permet de vérifier le fonctionnement d'un système sans en divulguer les détails au public. La transparence sur les résultats, performances, métriques d'équité, taux d'erreur, peut fournir des informations utiles sans révéler les mécanismes internes du système. Les environnements d'audit sécurisés (sandboxes) permettent aux organismes de surveillance d'examiner les systèmes dans des conditions contrôlées. ## Recommandations Pour renforcer la transparence algorithmique au Québec, plusieurs mesures pourraient être envisagées : élargir les obligations de transparence au-delà des décisions « exclusivement » automatisées pour couvrir les systèmes d'aide à la décision à fort impact, développer des normes sectorielles d'explicabilité adaptées aux contextes d'utilisation, créer un registre public des systèmes d'IA utilisés par les organismes gouvernementaux, soutenir la recherche en explicabilité algorithmique, former les professionnels du droit et les organismes de surveillance aux enjeux techniques de la transparence algorithmique, et établir des mécanismes d'audit indépendant accessibles. ## Conclusion La transparence algorithmique n'est pas un luxe ni un obstacle à l'innovation : c'est une condition de la légitimité démocratique de l'IA. Dans une société qui valorise la participation citoyenne et la reddition de comptes, l'opacité des systèmes décisionnels algorithmiques est inacceptable. Le Québec doit affirmer son engagement envers la transparence et se doter des outils juridiques, techniques et institutionnels nécessaires pour le concrétiser. --- ### La surveillance algorithmique au travail : enjeux pour le droit du travail québécois - URL : https://gouvernance.ai/actualites/surveillance-algorithmique-travail-quebec - Date : 2026-01-10 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : surveillance, travail, vie privée, télétravail, syndicats, Loi 25, santé psychologique - Résumé : Suivi de productivité, analyse des communications, biométrie : la surveillance algorithmique au travail soulève des enjeux majeurs pour le droit du travail québécois et la santé des travailleurs. ## L'œil numérique dans le milieu de travail L'intelligence artificielle a transformé la surveillance en milieu de travail de manière radicale. Ce qui relevait autrefois de la supervision humaine directe est désormais délégué à des systèmes algorithmiques capables de monitorer en continu la productivité, les communications, les déplacements, les émotions et même les données biométriques des travailleurs. L'adoption massive du télétravail depuis 2020 a accéléré cette tendance, les employeurs cherchant de nouveaux moyens de supervision pour des équipes distribuées. Le Québec, avec son cadre juridique distinct en matière de droit du travail et de protection de la vie privée, fait face à des défis spécifiques dans l'encadrement de ces pratiques. ## L'étendue de la surveillance algorithmique Les outils de surveillance algorithmique au travail englobent désormais un spectre très large de technologies. Les logiciels de suivi de productivité enregistrent les frappes au clavier, les mouvements de souris, les applications utilisées, le temps passé sur chaque tâche et les captures d'écran automatiques, parfois à intervalles de quelques minutes. Les systèmes d'analyse des communications scrutent les courriels, les messages instantanés et les appels téléphoniques pour évaluer le ton, la fréquence et le contenu des échanges. Les technologies biométriques se répandent dans les milieux de travail physiques : reconnaissance faciale pour le contrôle d'accès et le suivi des présences, analyse des expressions faciales pour évaluer l'engagement lors des réunions vidéo, capteurs de mouvement pour optimiser les déplacements dans les entrepôts et les usines. Les systèmes de gestion algorithmique vont au-delà de la surveillance pour prendre des décisions : attribution automatique des tâches, évaluation de la performance, détermination des horaires, identification des candidats au licenciement. Ces systèmes, souvent présentés comme objectifs, peuvent en réalité encoder et amplifier des biais qui affectent les conditions de travail et les perspectives de carrière des employés. ## Le cadre juridique québécois applicable Le droit québécois offre plusieurs protections aux travailleurs face à la surveillance algorithmique, même si ces protections n'ont pas été conçues spécifiquement pour cette technologie. La Charte des droits et libertés de la personne du Québec protège le droit à la vie privée (article 5) et le droit à des conditions de travail justes et raisonnables qui respectent la dignité (article 46). Ces droits fondamentaux s'appliquent en milieu de travail et peuvent être invoqués pour contester des pratiques de surveillance disproportionnées. Le Code civil du Québec impose le respect de la réputation et de la vie privée (articles 35 à 41), y compris le droit de ne pas être surveillé de manière intrusive dans sa vie privée. L'application de ces dispositions au milieu de travail a fait l'objet d'une jurisprudence significative, notamment en ce qui concerne la vidéosurveillance et la filature, qui offre des principes transposables à la surveillance algorithmique. La Loi 25, en modernisant le cadre de protection des renseignements personnels, renforce les obligations de transparence et de consentement pour la collecte et l'utilisation de données personnelles, y compris en milieu de travail. L'obligation de réaliser une évaluation des facteurs relatifs à la vie privée (EFVP) pour les projets impliquant des renseignements personnels s'applique aux systèmes de surveillance algorithmique. Le droit du travail québécois, le Code du travail, la Loi sur les normes du travail, la Loi sur la santé et la sécurité du travail, ne contient pas de dispositions spécifiques à la surveillance algorithmique. Cependant, les principes généraux de bonne foi, de non-discrimination et de respect de la dignité s'appliquent. ## Les zones grises juridiques Malgré ces protections, plusieurs zones grises subsistent. La surveillance des travailleurs en télétravail à leur domicile soulève des questions complexes sur la frontière entre l'espace professionnel et l'espace privé. Lorsqu'un employeur installe un logiciel de surveillance sur l'ordinateur d'un employé qui travaille de chez lui, la captation d'écran peut révéler des informations relevant de la vie privée, consultations médicales en ligne, communications personnelles, activités de navigation. La notion de consentement en contexte d'emploi est problématique. Le déséquilibre de pouvoir inhérent à la relation d'emploi rend le consentement du travailleur suspect : un employé peut difficilement refuser une surveillance que son employeur présente comme obligatoire sans craindre des répercussions. La Loi 25 reconnaît ce problème en exigeant que le consentement soit « manifeste, libre et éclairé », mais l'application concrète de ces critères en contexte d'emploi reste à préciser. L'utilisation de l'IA pour des décisions d'emploi, embauche, évaluation, promotion, licenciement, soulève des enjeux de discrimination. Les systèmes algorithmiques peuvent reproduire des biais historiques présents dans les données d'entraînement, pénalisant systématiquement certains groupes. La Charte québécoise interdit la discrimination dans l'emploi, mais la détection et la preuve de discrimination algorithmique posent des défis techniques considérables. ## Les implications pour la santé des travailleurs La surveillance algorithmique a des répercussions documentées sur la santé psychologique des travailleurs. Le sentiment d'être constamment observé génère du stress, de l'anxiété et une diminution de la satisfaction au travail. La pression de la productivité mesurée en temps réel peut conduire à une intensification du travail préjudiciable à la santé. L'utilisation de métriques algorithmiques comme principal outil d'évaluation peut réduire le travail à des indicateurs quantitatifs qui ne capturent pas la complexité et la qualité du travail accompli. La Commission des normes, de l'équité, de la santé et de la sécurité du travail (CNESST) devrait examiner les impacts de la surveillance algorithmique sur la santé psychologique des travailleurs et développer des orientations à cet égard. ## Le rôle des syndicats et de la négociation collective Les syndicats québécois sont des acteurs clés dans l'encadrement de la surveillance algorithmique. La négociation collective permet d'intégrer des clauses spécifiques sur l'utilisation des technologies de surveillance, les droits d'accès des employés aux données collectées, les limites de l'utilisation des données à des fins disciplinaires et les mécanismes de contestation des décisions algorithmiques. Plusieurs conventions collectives québécoises commencent à intégrer des dispositions relatives à l'IA et à la surveillance technologique, mais la pratique reste émergente. Les centrales syndicales québécoises, la FTQ, la CSN, la CSQ, ont un rôle de sensibilisation et de formation auprès de leurs membres sur ces enjeux. ## Recommandations Le Québec devrait envisager des dispositions législatives spécifiques encadrant la surveillance algorithmique en milieu de travail, incluant des obligations de transparence, de proportionnalité et de limitation des finalités. Des lignes directrices de la CAI spécifiques à la surveillance au travail seraient utiles pour clarifier l'application de la Loi 25 dans ce contexte. Un droit d'explication pour les travailleurs soumis à des décisions algorithmiques devrait être explicitement reconnu. Les mécanismes de plainte et de recours accessibles aux travailleurs devraient être renforcés. ## Conclusion La surveillance algorithmique au travail est un terrain où convergent les enjeux de la vie privée, du droit du travail, de la discrimination et de la santé psychologique. Le Québec dispose d'un cadre juridique robuste mais incomplet pour faire face à ces défis. Une mise à jour ciblée de ce cadre, informée par les réalités technologiques et les pratiques émergentes, est nécessaire pour protéger la dignité et les droits des travailleurs québécois à l'ère de l'IA. --- ### La certification ISO 42001 : un avantage concurrentiel incontournable en 2026 - URL : https://gouvernance.ai/actualites/certification-iso-42001 - Date : 2026-01-08 - Catégorie : opinion - Auteur : florian-brobst - Mots-clés : ISO 42001, certification, norme internationale, gouvernance IA, conformit\u00e9, avantage concurrentiel - Résumé : Alors que la norme ISO/IEC 42001 gagne en reconnaissance internationale, obtenir cette certification devient un levier stratégique pour les organisations québécoises. ## Au-delà de la conformité, un signal de confiance La norme **ISO/IEC 42001**, publiée en décembre 2023, définit les exigences pour l'établissement, la mise en oeuvre et l'amélioration continue d'un **système de gestion de l'intelligence artificielle** (SGIA). En 2026, cette certification n'est plus un simple exercice de conformité : elle est devenue un **véritable différenciateur sur le marché**. ## Pourquoi les organisations québécoises devraient agir maintenant Plusieurs facteurs convergent pour faire de la certification ISO 42001 une priorité stratégique : - **Exigences contractuelles** : De plus en plus de donneurs d'ordres, tant publics que privés, incluent la certification ISO 42001 dans leurs critères de sélection de fournisseurs. - **Convergence réglementaire** : Le cadre proposé par la norme s'aligne étroitement avec les exigences du AI Act européen et les orientations du cadre MCN québécois, facilitant ainsi une conformité multijuridictionnelle. - **Confiance des parties prenantes** : La certification offre une assurance vérifiable aux clients, partenaires et régulateurs quant à la rigueur des pratiques de gouvernance de l'IA. ## Les étapes clés vers la certification Le parcours de certification comporte plusieurs jalons importants : 1. **Diagnostic initial** : Évaluer l'écart entre les pratiques actuelles et les exigences de la norme. 2. **Conception du SGIA** : Définir la politique IA, les objectifs, les rôles et les processus de gestion des risques. 3. **Mise en oeuvre** : Déployer les contrôles, former les équipes et documenter les processus. 4. **Audit interne** : Vérifier la conformité avant l'audit de certification. 5. **Audit externe** : Obtenir la certification par un organisme accrédité. Le Cercle de Gouvernance de l'IA proposera au printemps 2026 un **programme d'accompagnement dédié** pour guider ses membres dans cette démarche. --- ### Biais algorithmiques et équité : les enjeux pour le Québec - URL : https://gouvernance.ai/actualites/biais-algorithmiques-equite-quebec - Date : 2026-01-07 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : biais, équité, discrimination, algorithmes, Charte des droits, inclusion, justice sociale - Résumé : Les algorithmes ne sont ni neutres ni objectifs. Ils reflètent et amplifient les biais sociaux. Pour le Québec, société attachée à l'équité et aux droits de la personne, la lutte contre les biais algorithmiques est un enjeu fondamental. ## Le miroir déformant des algorithmes Les systèmes d'intelligence artificielle, contrairement à une idée répandue, ne sont pas neutres ni objectifs. Ils reflètent, et parfois amplifient, les biais présents dans les données sur lesquelles ils sont entraînés, dans les choix de conception de leurs développeurs et dans les structures sociales qu'ils modélisent. La question des biais algorithmiques est un enjeu de gouvernance fondamental pour le Québec, une société qui affirme des valeurs d'équité, d'inclusion et de respect des droits de la personne. ## Comprendre les biais algorithmiques Les biais algorithmiques peuvent se manifester à chaque étape du cycle de vie d'un système d'IA. Au stade de la collecte des données, un jeu de données qui sous-représente certains groupes de la population produira un modèle moins performant pour ces groupes. Au stade de la conception du modèle, les choix de variables, de métriques d'optimisation et d'architecture peuvent incorporer des présupposés discriminatoires. Au stade du déploiement, l'interaction entre le système et son environnement peut engendrer des dynamiques de renforcement des inégalités. Il est important de distinguer différents types de biais. Les biais de représentation résultent d'un déséquilibre dans les données d'entraînement. Les biais de mesure proviennent d'instruments ou de méthodes de collecte de données qui ne mesurent pas ce qu'ils sont censés mesurer de manière équitable pour tous les groupes. Les biais historiques reflètent des inégalités passées ou présentes inscrites dans les données. Les biais d'agrégation surviennent lorsqu'un modèle unique est appliqué à des populations hétérogènes sans tenir compte de leurs différences. ## Les manifestations dans le contexte québécois Au Québec, les biais algorithmiques peuvent se manifester dans de nombreux secteurs et affecter différents groupes de la population. Les communautés racisées et les personnes issues de l'immigration sont particulièrement exposées aux biais algorithmiques dans les domaines de l'emploi, du logement, du crédit et des services publics. Des systèmes d'IA utilisés pour le tri de candidatures, l'évaluation du risque de crédit ou l'allocation de logements sociaux peuvent reproduire des schémas discriminatoires enracinés dans les données historiques. Les Premiers Peuples du Québec, les Premières Nations et les Inuit, sont confrontés à des risques spécifiques. La sous-représentation des populations autochtones dans les jeux de données, combinée aux effets cumulatifs de la discrimination systémique, peut conduire à des systèmes d'IA qui desservent ces communautés de manière disproportionnée. L'utilisation de l'IA dans les services sociaux, la justice et la santé peut avoir des conséquences graves pour des populations déjà marginalisées. Les personnes en situation de handicap peuvent être discriminées par des systèmes d'IA qui ne prennent pas en compte la diversité des capacités et des modes d'interaction. Les systèmes de reconnaissance vocale moins performants pour les personnes ayant des troubles de la parole, les interfaces visuelles inaccessibles aux personnes malvoyantes ou les algorithmes de recrutement pénalisant les parcours professionnels atypiques sont autant d'exemples de biais d'exclusion. Les femmes et les personnes de la diversité de genre peuvent être affectées par des biais algorithmiques dans les systèmes de recrutement, de recommandation et de décision automatisée. Des études ont montré que certains systèmes d'IA associent des stéréotypes de genre aux professions, aux compétences et aux comportements. Les francophones peuvent être désavantagés par des systèmes d'IA dont les performances sont optimisées pour l'anglais. Ce biais linguistique, bien que souvent non intentionnel, constitue une forme de discrimination systémique dans le contexte québécois. ## Le cadre juridique applicable aux biais algorithmiques La Charte des droits et libertés de la personne du Québec interdit la discrimination fondée sur la race, la couleur, le sexe, l'identité ou l'expression de genre, la grossesse, l'orientation sexuelle, l'état civil, l'âge, la religion, les convictions politiques, la langue, l'origine ethnique ou nationale, la condition sociale, le handicap ou l'utilisation d'un moyen pour pallier ce handicap. Cette interdiction s'applique aux décisions prises avec l'aide de systèmes d'IA autant qu'aux décisions humaines. La Commission des droits de la personne et des droits de la jeunesse dispose du mandat d'enquêter sur les pratiques discriminatoires et de promouvoir les droits protégés par la Charte. Son rôle pourrait s'avérer déterminant dans l'examen des pratiques algorithmiques discriminatoires. Toutefois, la capacité de la Commission à évaluer les systèmes d'IA complexes nécessite le développement de compétences techniques spécialisées. La Loi 25 contribue indirectement à la lutte contre les biais algorithmiques en imposant la transparence des décisions automatisées et le droit de les contester. La possibilité pour une personne de connaître les facteurs ayant mené à une décision algorithmique la concernant est un outil précieux pour détecter d'éventuels biais. ## Les approches techniques de détection et d'atténuation La communauté de recherche québécoise, notamment au sein de Mila et d'IVADO, contribue activement au développement de méthodes techniques pour détecter et atténuer les biais algorithmiques. Les audits algorithmiques permettent d'évaluer systématiquement les performances d'un système d'IA pour différents groupes de la population. En mesurant les écarts de performance, taux d'erreur, taux de faux positifs, taux de faux négatifs, entre les groupes, ces audits peuvent révéler des biais qui ne seraient pas apparents dans une évaluation globale du système. Les techniques de débiaisage visent à réduire les biais à différentes étapes du processus d'apprentissage. Le prétraitement des données peut corriger des déséquilibres de représentation. L'apprentissage sous contraintes d'équité impose des critères de non-discrimination dans l'optimisation du modèle. Le post-traitement des résultats ajuste les seuils de décision pour équilibrer les performances entre les groupes. Ces techniques ne sont toutefois pas des solutions magiques. Le choix d'une définition d'équité, et il en existe de nombreuses, parfois mutuellement incompatibles, est un choix de valeurs, pas un choix technique. Les organisations doivent engager une réflexion éthique sur la définition d'équité la plus appropriée à leur contexte, en consultation avec les parties prenantes affectées. ## Vers une gouvernance proactive de l'équité algorithmique Les organisations québécoises doivent adopter une approche proactive pour prévenir et corriger les biais algorithmiques. Cela implique d'intégrer l'analyse d'équité dès la conception des systèmes d'IA, de constituer des équipes de développement diversifiées, reflétant la diversité de la population québécoise, de réaliser des audits d'équité réguliers tout au long du cycle de vie des systèmes, de mettre en place des mécanismes de signalement accessibles pour les personnes estimant être victimes de discrimination algorithmique, de documenter et de publier les résultats des évaluations d'équité, et de consulter les communautés potentiellement affectées dans la conception et l'évaluation des systèmes. Le gouvernement du Québec pourrait jouer un rôle moteur en imposant des évaluations d'impact sur l'équité pour les systèmes d'IA déployés dans le secteur public, en soutenant la recherche sur les biais algorithmiques dans le contexte québécois, en finançant le développement d'outils et de méthodologies d'audit adaptés et en établissant des normes d'équité algorithmique pour les marchés publics. ## Conclusion Les biais algorithmiques ne sont pas une fatalité, mais les combattre exige une vigilance constante, des compétences techniques et éthiques, et une volonté politique affirmée. Le Québec, par ses valeurs d'équité et d'inclusion et par l'expertise de son écosystème de recherche en IA, a les moyens de devenir un leader dans la promotion de l'équité algorithmique. Mais cela suppose de passer de la reconnaissance du problème à l'action concrète, systématique et mesurable. --- ### Le Rapport international sur la sécurité de l'IA 2026 : implications pour le Québec - URL : https://gouvernance.ai/actualites/rapport-international-securite-ia-2026 - Date : 2026-01-06 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : sécurité, rapport international, risques, alignement, Mila, recherche, gouvernance mondiale - Résumé : Le deuxième Rapport international sur la sécurité de l'IA dresse un état des lieux sans précédent des risques. Capacités autonomes, concentration du développement, mauvaise utilisation : implications pour le Québec. ## Un état des lieux sans précédent Le deuxième Rapport international sur la sécurité de l'intelligence artificielle, publié en début d'année 2026, constitue l'évaluation scientifique la plus complète à ce jour des risques posés par les systèmes d'IA avancés. Produit par un panel international d'experts réunissant des chercheurs de premier plan, dont des contributeurs québécois associés à Mila et à d'autres institutions de recherche, ce rapport établit un état des lieux qui doit informer la réflexion québécoise sur la gouvernance de l'IA. ## Les constats principaux du rapport Le rapport identifie plusieurs tendances préoccupantes. Les capacités des systèmes d'IA progressent à un rythme qui dépasse les prévisions antérieures. Les modèles de fondation les plus récents démontrent des capacités de raisonnement, de planification et de résolution de problèmes qui se rapprochent, dans certains domaines spécifiques, des capacités humaines. Cette progression rapide rend les cadres de gouvernance existants insuffisants. Le rapport souligne l'émergence de capacités autonomes chez les systèmes d'IA les plus avancés. Certains modèles sont désormais capables de formuler et de poursuivre des objectifs de manière autonome, de décomposer des problèmes complexes en sous-tâches, d'utiliser des outils externes et d'interagir avec leur environnement numérique. Ces capacités, lorsqu'elles sont déployées dans des agents autonomes, créent des risques qui n'existaient pas avec les systèmes d'IA passifs. La concentration du développement de l'IA avancée entre les mains d'un petit nombre d'entreprises, principalement américaines et chinoises, est identifiée comme un risque systémique. Cette concentration crée des dépendances géopolitiques, limite la diversité des approches et des valeurs intégrées dans les systèmes, et rend la gouvernance mondiale plus difficile. Les risques de mauvaise utilisation se sont matérialisés. Le rapport documente l'utilisation croissante de l'IA pour la désinformation à grande échelle, les cyberattaques sophistiquées, la surveillance de masse et la manipulation comportementale. Les capacités de l'IA en matière de synthèse chimique et biologique sont également identifiées comme un risque émergent nécessitant une attention urgente. ## L'évaluation des risques à long terme Le rapport aborde pour la première fois de manière systématique les risques à long terme de l'IA, y compris le scénario dans lequel des systèmes d'IA extrêmement capables pourraient poursuivre des objectifs mal alignés avec les intérêts humains. Sans tomber dans l'alarmisme, les experts constatent que les mécanismes actuels d'alignement des systèmes d'IA, les techniques qui permettent de s'assurer que les systèmes agissent conformément aux intentions de leurs concepteurs, restent insuffisants face aux capacités croissantes des modèles. Le rapport recommande un investissement massif dans la recherche sur l'alignement et la sécurité des systèmes d'IA, comparable en ampleur aux investissements consacrés au développement des capacités elles-mêmes. Cette recommandation concerne directement le Québec, où Mila et d'autres institutions mènent des recherches de pointe dans ce domaine. ## Les recommandations de gouvernance Le rapport formule des recommandations de gouvernance qui s'adressent tant aux États qu'aux organisations. Au niveau étatique, il préconise l'adoption de cadres réglementaires fondés sur les risques, la mise en place de mécanismes d'évaluation indépendante des systèmes d'IA avancés, le renforcement de la coopération internationale et l'investissement dans la recherche en sécurité de l'IA. Au niveau organisationnel, le rapport recommande l'adoption de pratiques de développement responsable, incluant des évaluations de sécurité pré-déploiement, des mécanismes de surveillance post-déploiement, des plans de réponse aux incidents et une transparence accrue sur les capacités et les limites des systèmes. Le concept de « gouvernance proportionnelle aux capacités » est central dans le rapport. Les obligations de sécurité et de transparence devraient croître avec les capacités des systèmes : plus un système est capable, plus les exigences de gouvernance devraient être strictes. Cette approche évite d'imposer des contraintes disproportionnées aux systèmes à faible risque tout en assurant un encadrement adéquat des systèmes les plus puissants. ## Les implications pour le Québec Le rapport a plusieurs implications directes pour le Québec. En matière de politique de recherche, le Québec devrait renforcer le financement de la recherche en sécurité et en alignement de l'IA, en tirant parti de l'expertise de Mila et de ses partenaires. La recherche québécoise en IA est mondialement reconnue pour ses contributions fondamentales; cette excellence doit être mobilisée pour répondre aux défis de sécurité identifiés par le rapport. En matière de réglementation, le rapport renforce l'argument en faveur d'un cadre québécois de gouvernance fondé sur les risques, avec des obligations proportionnelles aux capacités et aux contextes d'utilisation des systèmes d'IA. Les critères de classification des risques proposés par le rapport pourraient informer la conception d'un cadre québécois. En matière de coopération internationale, le rapport souligne la nécessité d'une coordination entre les juridictions. Le Québec, en participant aux forums internationaux de gouvernance de l'IA, y compris à travers sa participation à des initiatives francophones, peut contribuer à façonner les normes internationales tout en défendant ses intérêts spécifiques. En matière de préparation, le rapport invite les gouvernements à développer des plans de préparation aux scénarios de risque liés à l'IA, y compris des mécanismes de réponse rapide aux incidents impliquant des systèmes d'IA avancés. Le Québec devrait évaluer sa propre préparation à ces scénarios et identifier les lacunes à combler. ## La position du Québec dans l'écosystème mondial Le rapport situe le Québec dans un contexte mondial où les grandes puissances technologiques, États-Unis, Chine, Union européenne, se livrent une concurrence intense pour le leadership en IA. Le Québec, tout en ne pouvant rivaliser en termes de ressources financières avec ces acteurs, dispose d'atouts significatifs : un écosystème de recherche de premier plan, une tradition de réflexion éthique sur l'IA, incarnée par la Déclaration de Montréal, et un cadre juridique qui offre un socle solide pour une gouvernance responsable. La stratégie québécoise devrait miser sur ces avantages comparatifs pour se positionner comme un modèle de gouvernance responsable de l'IA, capable d'influencer les normes internationales tout en protégeant les intérêts de ses citoyens. ## Conclusion Le Rapport international sur la sécurité de l'IA 2026 est un signal d'alarme mesuré mais ferme : les risques de l'IA sont réels, croissants et exigent une réponse de gouvernance à la hauteur. Le Québec, avec ses capacités de recherche et sa tradition de réflexion éthique, a un rôle important à jouer dans cette réponse. Mais ce rôle exige des investissements soutenus, une vision stratégique claire et une volonté politique de faire de la sécurité de l'IA une priorité au même titre que son développement. --- ### L'intelligence artificielle dans l'éducation québécoise : entre promesses et vigilance - URL : https://gouvernance.ai/actualites/ia-education-quebec - Date : 2026-01-03 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : éducation, enseignement, IA générative, apprentissage adaptatif, plagiat, littératie numérique - Résumé : Du préscolaire à l'université, l'IA transforme le système éducatif québécois. IA générative, apprentissage adaptatif, évaluation automatisée : quels enjeux de gouvernance pour l'éducation au Québec ? ## Un secteur en transformation Le système éducatif québécois, du préscolaire à l'université, est confronté à la vague de transformation induite par l'intelligence artificielle. Les outils d'IA générative, les systèmes d'apprentissage adaptatif et les plateformes d'évaluation automatisée modifient profondément les pratiques pédagogiques, les modes d'évaluation et la relation entre enseignants et apprenants. La gouvernance de ces technologies dans le contexte éducatif québécois constitue un enjeu majeur pour l'avenir de la société. ## Les applications de l'IA en éducation L'IA s'introduit dans l'éducation québécoise par de multiples canaux. Les systèmes d'apprentissage adaptatif ajustent le contenu pédagogique au rythme et au niveau de chaque apprenant, offrant une expérience de formation personnalisée. Les outils de correction automatisée soulagent le personnel enseignant de tâches répétitives, leur permettant de consacrer davantage de temps à l'accompagnement individuel. Les agents conversationnels et les tuteurs intelligents offrent un soutien en dehors des heures de cours. L'irruption de l'IA générative, les grands modèles de langage capables de produire du texte, du code et des contenus multimédias, a provoqué une onde de choc dans le milieu éducatif. Ces outils remettent en question les méthodes traditionnelles d'évaluation fondées sur la production écrite et soulèvent des questions fondamentales sur la nature de l'apprentissage et sur les compétences que l'école doit développer. L'analyse de l'apprentissage (learning analytics) utilise les traces numériques laissées par les apprenants sur les plateformes éducatives pour identifier les élèves à risque de décrochage, optimiser les parcours de formation et évaluer l'efficacité des interventions pédagogiques. Ces applications peuvent contribuer à la réussite éducative, mais elles soulèvent des questions de surveillance et de profilage des élèves. ## Le cadre de gouvernance applicable Le système éducatif québécois est encadré par un ensemble de lois et de politiques qui influencent la gouvernance de l'IA en éducation. La Loi sur l'instruction publique, la Loi sur l'enseignement privé et la Loi sur les collèges d'enseignement général et professionnel définissent les responsabilités des acteurs du système éducatif. Le ministère de l'Éducation exerce un rôle de leadership dans la définition des orientations et des normes. La protection des données des élèves revêt une importance particulière dans le contexte éducatif. La Loi sur l'accès aux documents des organismes publics s'applique aux établissements publics d'enseignement, tandis que la Loi sur la protection des renseignements personnels dans le secteur privé s'applique aux établissements privés et aux fournisseurs de solutions technologiques. Les données des élèves mineurs bénéficient d'une protection renforcée, le consentement devant être donné par le titulaire de l'autorité parentale. Le Conseil supérieur de l'éducation, organisme consultatif auprès du ministre de l'Éducation, a contribué à la réflexion sur les enjeux du numérique et de l'IA en éducation par ses avis et ses rapports. Ses recommandations éclairent la prise de décision politique en matière de gouvernance de l'IA dans le système éducatif. ## Les enjeux éthiques et sociaux L'équité d'accès est un enjeu fondamental. Le déploiement de l'IA en éducation ne doit pas creuser les inégalités existantes entre les élèves, les écoles et les régions. Les élèves issus de milieux défavorisés, les élèves en région éloignée et les élèves ayant des besoins particuliers doivent avoir un accès équitable aux technologies d'IA éducatives. Le risque d'une « fracture numérique » au sein du système éducatif est réel et doit être activement combattu. La surveillance et le profilage des élèves constituent une préoccupation majeure. Les plateformes d'apprentissage en ligne collectent des quantités considérables de données sur les comportements, les performances et les habitudes des élèves. L'utilisation de ces données pour profiler les apprenants, prédire leur trajectoire scolaire ou influencer leur orientation soulève des questions éthiques profondes, particulièrement lorsque les sujets sont des mineurs. L'autonomie pédagogique des enseignants est un enjeu important. L'introduction d'outils d'IA dans les pratiques pédagogiques ne doit pas conduire à une dépossession des enseignants de leur expertise professionnelle. Les systèmes de recommandation pédagogique doivent être conçus comme des outils d'aide à la décision, pas comme des substituts au jugement professionnel des enseignants. L'intégrité académique est mise au défi par l'IA générative. Les établissements d'enseignement doivent repenser leurs pratiques d'évaluation pour s'adapter à un contexte où les étudiants ont accès à des outils capables de produire des textes, de résoudre des problèmes et de générer du code. Plutôt que de se limiter à une approche prohibitive, les institutions doivent développer des pratiques pédagogiques qui intègrent l'IA de manière critique et constructive. La protection de la langue française dans les outils d'IA éducatifs est un enjeu spécifiquement québécois. De nombreuses plateformes éducatives basées sur l'IA sont développées en anglais et leurs performances en français peuvent être inégales. Le déploiement d'outils d'IA dans les écoles québécoises doit garantir une qualité de service équivalente en français. ## Les enjeux liés aux fournisseurs technologiques La dépendance envers les fournisseurs technologiques étrangers est une préoccupation croissante. Les plateformes éducatives basées sur l'IA sont souvent développées par de grandes entreprises technologiques américaines, ce qui soulève des questions de souveraineté numérique, de protection des données et d'adéquation avec les valeurs et le curriculum québécois. Les contrats avec les fournisseurs de solutions d'IA éducatives doivent faire l'objet d'une attention particulière en matière de propriété et d'utilisation des données des élèves, de localisation et de sécurité des données, d'adéquation avec le cadre juridique québécois de protection des renseignements personnels, de possibilité d'audit et de vérification des algorithmes, et de pérennité et de portabilité des données en cas de changement de fournisseur. ## Vers une littératie en IA Au-delà de l'utilisation de l'IA comme outil pédagogique, le système éducatif québécois doit développer la littératie en IA des élèves. Comprendre les principes fondamentaux de l'IA, ses capacités et ses limites, ses impacts sociaux et éthiques, devient une compétence essentielle pour les citoyens du XXIe siècle. Cette formation ne doit pas se limiter aux aspects techniques. Elle doit inclure une dimension critique permettant aux élèves de questionner les systèmes d'IA qu'ils utilisent, de comprendre les biais potentiels, de protéger leur vie privée et de participer de manière éclairée au débat public sur la gouvernance de l'IA. Les programmes de formation initiale et continue des enseignants doivent intégrer ces compétences. Les enseignants sont en première ligne de l'intégration de l'IA dans l'éducation ; ils doivent être équipés pour comprendre ces technologies, les utiliser de manière judicieuse et accompagner leurs élèves dans le développement d'une pensée critique face à l'IA. ## Recommandations Le Québec devrait élaborer une politique claire sur l'utilisation de l'IA en éducation, définissant les principes directeurs, les responsabilités des acteurs et les mécanismes de gouvernance. Cette politique devrait être élaborée en consultation avec l'ensemble des parties prenantes, enseignants, directions d'établissement, parents, élèves, chercheurs et fournisseurs technologiques. Elle devrait être régulièrement révisée pour s'adapter à l'évolution rapide des technologies. ## Conclusion L'IA offre des opportunités remarquables pour améliorer l'éducation au Québec, mais son déploiement doit être encadré avec soin pour protéger les droits des élèves, préserver l'autonomie des enseignants et garantir l'équité du système éducatif. La gouvernance de l'IA en éducation n'est pas une question secondaire : elle détermine la qualité de l'expérience éducative de la prochaine génération de Québécoises et de Québécois. --- ### IA et démocratie : participation citoyenne et gouvernance algorithmique au Québec - URL : https://gouvernance.ai/actualites/ia-democratie-participation-citoyenne - Date : 2026-01-02 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : démocratie, participation citoyenne, algorithmes, transparence, élections, manipulation - Résumé : L'IA s'immisce dans les mécanismes fondamentaux de la démocratie. Manipulation algorithmique, participation citoyenne augmentée, transparence : comment maintenir une démocratie vivante à l'ère des algorithmes ? ## L'IA au cœur du contrat social L'intelligence artificielle s'immisce dans les mécanismes fondamentaux de la démocratie, la formation de l'opinion publique, le processus électoral, la prise de décision gouvernementale et la participation citoyenne. Cette pénétration soulève des questions profondes sur le contrat social québécois : comment maintenir une démocratie vivante et authentique lorsque des algorithmes façonnent ce que les citoyens voient, savent et croient ? ## L'IA dans la sphère publique québécoise L'utilisation de l'IA par les gouvernements et les institutions publiques transforme la relation entre l'État et les citoyens. Au Québec comme ailleurs, les administrations publiques déploient des systèmes automatisés pour l'attribution de services sociaux, l'évaluation de demandes administratives, la détection de fraude fiscale, l'allocation de ressources en santé et en éducation, et la priorisation des interventions policières. Chacune de ces applications implique des décisions qui affectent directement les droits et les conditions de vie des citoyens. Lorsque ces décisions sont prises ou influencées par des algorithmes, la question de la légitimité démocratique se pose avec acuité. Les citoyens ont le droit de comprendre comment les décisions qui les concernent sont prises, de contester ces décisions et de demander des comptes aux responsables. La Loi 25 du Québec reconnaît ce droit en imposant une obligation de transparence lorsqu'une décision est fondée exclusivement sur un traitement automatisé de renseignements personnels. Mais cette disposition, en ne couvrant que les décisions « exclusivement » automatisées, laisse dans l'ombre la vaste majorité des cas où l'IA influence sans déterminer seule la décision. ## La manipulation algorithmique de l'opinion publique Les algorithmes de recommandation des plateformes numériques exercent une influence considérable sur la formation de l'opinion publique. En sélectionnant les contenus que chaque utilisateur voit, articles de presse, publications sur les réseaux sociaux, vidéos, publicités, ces systèmes créent des environnements informationnels personnalisés qui peuvent renforcer les biais cognitifs, polariser le débat public et amplifier la désinformation. Pour le Québec, société francophone en Amérique du Nord, cette dynamique prend une dimension particulière. Les algorithmes des grandes plateformes sont conçus et optimisés principalement pour les marchés anglophones, et leur fonctionnement dans l'écosystème médiatique francophone est mal compris et mal encadré. Le risque est que le débat public québécois soit façonné par des logiques algorithmiques qui ne tiennent pas compte des spécificités culturelles et linguistiques de la société québécoise. La période électorale concentre les risques. Les campagnes de micro-ciblage politique, amplifiées par l'IA, permettent d'adresser des messages sur mesure à des segments très précis de l'électorat, en exploitant leurs préoccupations, leurs peurs et leurs aspirations. Cette personnalisation extrême du discours politique érode le socle commun d'information nécessaire au débat démocratique. ## La participation citoyenne augmentée par l'IA L'IA offre aussi des possibilités inédites pour renforcer la participation citoyenne. Les outils de consultation en ligne peuvent utiliser le traitement automatique du langage naturel pour analyser des milliers de contributions citoyennes, en identifier les thèmes récurrents et les points de convergence, et produire des synthèses qui informent la prise de décision. Plusieurs juridictions expérimentent des « assemblées citoyennes augmentées » où l'IA facilite la délibération en fournissant des informations factuelles, en identifiant les points de consensus et de désaccord, et en aidant à la formulation de recommandations. Le Québec, avec sa tradition de consultation publique, commissions parlementaires, consultations du BAPE, audiences de la CAI, pourrait intégrer des outils d'IA pour rendre ces processus plus accessibles et plus inclusifs. L'IA pourrait faciliter la participation des citoyens qui maîtrisent moins bien l'écrit, qui vivent en région éloignée ou qui font face à des barrières linguistiques. Mais l'utilisation de l'IA dans les processus de participation citoyenne soulève aussi des questions. Qui conçoit les algorithmes qui synthétisent les contributions citoyennes ? Quels biais peuvent influencer cette synthèse ? Comment s'assurer que la voix des minorités n'est pas noyée dans l'agrégation algorithmique des opinions ? ## La transparence algorithmique comme impératif démocratique La transparence des systèmes d'IA utilisés dans la sphère publique est un impératif démocratique, pas seulement une exigence technique. Les citoyens doivent pouvoir comprendre, au moins dans leurs grandes lignes, comment les algorithmes qui affectent leurs droits et leurs opportunités fonctionnent. Cette transparence prend plusieurs formes. La transparence institutionnelle implique que les organismes publics divulguent quels systèmes d'IA ils utilisent, dans quels contextes et avec quelles garanties. La transparence technique exige que les modèles soient documentés de manière à permettre un examen indépendant. La transparence procédurale suppose que les processus de développement, de validation et de déploiement des systèmes d'IA soient soumis à un contrôle démocratique. Le Québec pourrait s'inspirer de l'initiative de la ville d'Amsterdam, qui a créé un registre public des algorithmes utilisés par l'administration municipale, ou du modèle français de la Commission nationale de l'informatique et des libertés (CNIL), qui publie des avis détaillés sur les systèmes algorithmiques déployés dans le secteur public. ## L'IA et le système judiciaire L'utilisation de l'IA dans le système judiciaire soulève des enjeux démocratiques fondamentaux. Les outils d'aide à la décision judiciaire, évaluation du risque de récidive, aide à la détermination de la peine, analyse prédictive de la criminalité, peuvent améliorer l'efficacité du système, mais ils peuvent aussi perpétuer des discriminations systémiques et miner le principe de l'individualisation de la justice. Au Québec, l'introduction de ces outils doit se faire avec une extrême prudence, dans le respect des droits garantis par la Charte des droits et libertés de la personne et avec la participation des acteurs du milieu judiciaire, juges, avocats, justiciables et organismes de défense des droits. ## Les garde-fous nécessaires La protection de la démocratie à l'ère de l'IA exige un ensemble de garde-fous. L'éducation civique doit intégrer la compréhension des enjeux algorithmiques pour que les citoyens puissent exercer leur jugement critique dans un environnement informationnel médié par l'IA. Les institutions de contrôle, le Vérificateur général, le Protecteur du citoyen, la Commission d'accès à l'information, doivent disposer des compétences et des ressources nécessaires pour examiner les systèmes d'IA utilisés par l'État. Les organisations de la société civile, médias, associations, organismes de recherche, jouent un rôle essentiel de vigie et de contre-pouvoir. Leur capacité à analyser et à critiquer les systèmes d'IA doit être soutenue. ## Conclusion La démocratie québécoise fait face à un double défi : se protéger contre les risques que l'IA fait peser sur l'intégrité des processus démocratiques, tout en exploitant le potentiel de l'IA pour renforcer la participation citoyenne et la qualité de la gouvernance. Relever ce défi exige une approche qui place les droits fondamentaux et la souveraineté populaire au centre de la gouvernance de l'IA, et qui mobilise l'ensemble des acteurs de la société, État, citoyens, entreprises, société civile, dans la construction d'un modèle démocratique adapté à l'ère algorithmique. --- ### Cybersécurité et IA au Québec : la double face de l'épée - URL : https://gouvernance.ai/actualites/cybersecurite-ia-quebec - Date : 2025-12-29 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : cybersécurité, phishing, rançongiciel, défense, PME, dark LLMs, vulnérabilités - Résumé : L'IA transforme la cybersécurité des deux côtés : phishing généré par IA, deepfakes vocaux et rançongiciels intelligents d'un côté, détection avancée et réponse automatisée de l'autre. Enjeux pour le Québec. ## Une transformation du paysage des menaces L'intelligence artificielle transforme en profondeur le paysage de la cybersécurité, autant du côté des attaquants que des défenseurs. Les cybercriminels exploitent l'IA pour automatiser et sophistiquer leurs attaques, tandis que les équipes de sécurité déploient des systèmes d'IA pour détecter et contrer ces menaces en temps réel. Cette course aux armements technologique a des implications directes pour les organisations québécoises et pour la gouvernance de l'IA dans la province. ## L'IA comme vecteur de menaces L'utilisation de l'IA par les cybercriminels a franchi un seuil qualitatif. Les attaques d'hameçonnage (phishing) générées par l'IA sont désormais d'une qualité linguistique et d'une personnalisation qui les rendent pratiquement indistinguables des communications légitimes. Les courriels frauduleux ne contiennent plus les fautes grossières qui permettaient aux utilisateurs de les identifier, ils sont rédigés dans un français impeccable, adaptés au contexte de la cible et exploitent des informations personnelles extraites des réseaux sociaux et des bases de données compromises. Les deepfakes vocaux et vidéo sont utilisés pour des fraudes sophistiquées. Des cas documentés montrent des employés transférant des sommes importantes après avoir reçu des instructions vocales qui reproduisaient parfaitement la voix de leur supérieur hiérarchique. La technologie de clonage vocal ne nécessite que quelques secondes d'enregistrement pour produire un double convaincant. Les rançongiciels (ransomware) alimentés par l'IA sont capables de s'adapter en temps réel aux défenses des systèmes ciblés, d'identifier automatiquement les données les plus sensibles pour maximiser la pression sur les victimes et de se propager de manière optimale dans les réseaux. Les groupes cybercriminels utilisent également l'IA pour découvrir des vulnérabilités dans les systèmes informatiques plus rapidement que les équipes de sécurité ne peuvent les corriger. Le développement d'outils d'IA malveillants dédiés, parfois appelés « dark LLMs », fournit aux criminels des assistants capables de générer du code malveillant, de planifier des attaques et de contourner les mesures de sécurité. Ces outils, disponibles sur le dark web, démocratisent l'accès à des capacités offensives autrefois réservées aux acteurs les plus sophistiqués. ## L'IA comme outil de défense En parallèle, l'IA renforce considérablement les capacités de cyberdéfense. Les systèmes de détection d'intrusion basés sur l'IA analysent des volumes massifs de données réseau en temps réel pour identifier des comportements anormaux qui échapperaient aux systèmes traditionnels fondés sur des signatures connues. L'apprentissage automatique permet de détecter des menaces inédites, les « zero-day », en reconnaissant des patterns d'activité suspecte. L'automatisation de la réponse aux incidents réduit le temps entre la détection d'une menace et sa neutralisation, un facteur critique lorsque les attaques se propagent en minutes. Les systèmes d'IA peuvent isoler automatiquement les segments de réseau compromis, bloquer les connexions suspectes et alerter les équipes de sécurité avec des informations contextualisées. L'analyse prédictive permet d'anticiper les attaques en identifiant les tendances et les indicateurs précurseurs dans les flux de données de renseignement sur les menaces. Les organisations peuvent ainsi renforcer préventivement leurs défenses dans les domaines les plus susceptibles d'être ciblés. ## Les vulnérabilités spécifiques au Québec Le Québec présente des vulnérabilités particulières dans ce contexte. Le réseau de la santé, qui gère des données extrêmement sensibles et dont les systèmes informatiques sont parfois vétustes, constitue une cible de choix. Les attaques par rançongiciel contre des établissements de santé ont des conséquences potentiellement mortelles lorsqu'elles perturbent les soins aux patients. Le secteur public québécois, en pleine transformation numérique, déploie des systèmes d'IA dans des contextes qui touchent directement les citoyens, services sociaux, fiscalité, justice. La sécurité de ces systèmes est une condition préalable à la confiance publique. Les PME québécoises, qui constituent la grande majorité du tissu économique, disposent rarement d'équipes de cybersécurité dédiées et sont particulièrement vulnérables. Elles sont souvent perçues par les cybercriminels comme des cibles faciles et comme des portes d'entrée vers les grandes organisations avec lesquelles elles sont connectées dans les chaînes d'approvisionnement. La dimension linguistique ajoute une complexité. Les outils d'IA malveillants optimisés pour le français québécois permettent des attaques d'ingénierie sociale plus convaincantes auprès de la population francophone. ## La gouvernance de la cybersécurité de l'IA La gouvernance de la cybersécurité de l'IA au Québec doit aborder plusieurs dimensions. La sécurité des systèmes d'IA eux-mêmes est un enjeu critique. Les modèles d'IA sont vulnérables à des attaques spécifiques : l'empoisonnement des données d'entraînement, les attaques adversarielles qui manipulent les entrées pour tromper les modèles, l'extraction de données sensibles mémorisées par les modèles et le détournement de fonctionnalité (jailbreaking). La réglementation doit évoluer pour intégrer les enjeux spécifiques de la cybersécurité de l'IA. La Loi 25, en imposant des obligations de sécurité pour la protection des renseignements personnels, fournit un socle, mais des exigences supplémentaires sont nécessaires pour les systèmes d'IA, compte tenu de leurs vulnérabilités particulières. La formation et la sensibilisation des employés doivent être mises à jour pour refléter les nouvelles menaces liées à l'IA. Les formations traditionnelles sur l'hameçonnage doivent intégrer les techniques d'attaque générées par l'IA, y compris les deepfakes vocaux et vidéo. La collaboration entre les acteurs est indispensable. Le Centre canadien pour la cybersécurité, les équipes de réponse aux incidents du Québec et les organisations du secteur privé doivent partager rapidement les informations sur les menaces émergentes liées à l'IA. ## Le cadre réglementaire en évolution Au niveau international, les exigences de cybersécurité pour les systèmes d'IA se renforcent. L'AI Act européen impose des exigences de robustesse et de cybersécurité pour les systèmes à haut risque. La directive NIS2 de l'UE étend les obligations de cybersécurité à un large éventail de secteurs. Les États-Unis, à travers le NIST AI Risk Management Framework, ont défini des pratiques de sécurité spécifiques aux systèmes d'IA. Le Québec devrait s'inspirer de ces cadres pour développer des exigences de cybersécurité adaptées aux systèmes d'IA déployés dans la province, en coordination avec les efforts fédéraux en la matière. ## Recommandations Le Québec devrait intégrer des exigences de cybersécurité spécifiques à l'IA dans son cadre réglementaire, soutenir les PME dans le renforcement de leur posture de cybersécurité face aux menaces liées à l'IA, développer des programmes de formation spécialisés à l'intersection de l'IA et de la cybersécurité, encourager la recherche québécoise en sécurité des systèmes d'IA, et établir des mécanismes de signalement et de réponse rapide aux incidents impliquant des systèmes d'IA. ## Conclusion La cybersécurité et l'IA sont désormais inextricablement liées. L'IA amplifie à la fois les menaces et les défenses, créant une dynamique complexe que les organisations québécoises doivent comprendre et gérer. Un cadre de gouvernance qui ignorerait la dimension cybersécurité de l'IA serait fondamentalement incomplet. Le Québec a l'opportunité de développer une approche intégrée qui fasse de la sécurité un pilier de sa stratégie d'IA, plutôt qu'un ajout tardif. --- ### L'intelligence artificielle dans le secteur de la santé au Québec : gouvernance et enjeux - URL : https://gouvernance.ai/actualites/ia-sante-quebec-gouvernance - Date : 2025-12-27 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : santé, données médicales, imagerie, génomique, consentement, Santé Canada, validation clinique - Résumé : L'IA promet de transformer le système de santé québécois, imagerie médicale, génomique, gestion hospitalière. Mais le déploiement en santé soulève des enjeux de gouvernance critiques liés aux données sensibles et à la sécurité des patients. ## Un potentiel transformateur dans un système sous pression Le système de santé québécois fait face à des défis structurels considérables : vieillissement de la population, pénurie de personnel soignant, listes d'attente prolongées, pression budgétaire croissante. Dans ce contexte, l'intelligence artificielle est souvent présentée comme un levier de transformation majeur, capable d'améliorer la qualité des soins, d'optimiser l'utilisation des ressources et de soutenir la recherche médicale. Mais le déploiement de l'IA en santé soulève des enjeux de gouvernance particulièrement aigus, compte tenu de la sensibilité des données en jeu et de l'impact direct sur la vie des patients. ## Les applications de l'IA en santé au Québec L'écosystème québécois de recherche en IA a engendré de nombreux projets d'application en santé. L'imagerie médicale est l'un des domaines les plus avancés : des algorithmes d'apprentissage profond atteignent des performances remarquables dans la détection de pathologies sur des radiographies, des tomodensitogrammes et des images de résonance magnétique. Ces outils ne remplacent pas le jugement du radiologue, mais peuvent servir de « second lecteur » pour améliorer la précision diagnostique et réduire le temps d'analyse. La génomique et la médecine de précision bénéficient également de l'IA. Les algorithmes de séquençage et d'analyse génomique permettent d'identifier des variants génétiques associés à des maladies, de prédire la réponse à certains traitements et de personnaliser les approches thérapeutiques. Le Québec, avec son expertise en génétique des populations et ses biobanques, dispose d'atouts considérables dans ce domaine. La gestion des flux hospitaliers, la prédiction des réadmissions, l'optimisation des horaires de personnel et le triage des urgences sont autant de domaines où l'IA peut contribuer à améliorer l'efficience du système de santé. Des projets pilotes ont été menés dans plusieurs établissements québécois, avec des résultats prometteurs mais encore limités en termes de déploiement à grande échelle. La santé mentale et le soutien psychologique constituent un domaine émergent. Des applications conversationnelles basées sur l'IA, des outils de détection précoce de la détresse psychologique et des systèmes de suivi à distance sont en développement. Ces applications posent toutefois des questions éthiques spécifiques, liées à la vulnérabilité des personnes concernées et aux limites de l'IA dans la compréhension des états émotionnels. ## Le cadre réglementaire applicable La gouvernance de l'IA en santé au Québec s'inscrit dans un cadre réglementaire complexe, au croisement de plusieurs législations. La Loi sur les services de santé et les services sociaux encadre la prestation des soins et la gestion des établissements. La Loi sur l'accès aux documents des organismes publics et la Loi 25 s'appliquent au traitement des données personnelles de santé. La Loi sur les renseignements de santé, si elle est adoptée, viendrait compléter ce cadre avec des dispositions spécifiques aux données de santé. Au niveau fédéral, la réglementation de Santé Canada sur les instruments médicaux s'applique aux logiciels d'IA qui répondent à la définition d'instrument médical, c'est-à-dire ceux qui sont destinés à être utilisés pour le diagnostic, le traitement, l'atténuation ou la prévention de maladies. Cette réglementation impose des exigences de sécurité, d'efficacité et de qualité qui doivent être satisfaites avant la mise en marché. Les comités d'éthique de la recherche des établissements de santé québécois jouent un rôle important dans l'évaluation des projets de recherche impliquant l'IA. Leurs protocoles d'évaluation doivent toutefois être adaptés pour prendre en compte les spécificités de l'IA, notamment les enjeux de réutilisation des données et de consentement dynamique. ## Les enjeux spécifiques de gouvernance La sensibilité des données de santé constitue l'enjeu le plus fondamental. Les données médicales sont parmi les plus intimes et les plus sensibles qui soient. Leur utilisation dans des systèmes d'IA nécessite des protections renforcées, tant sur le plan juridique que technique. Le risque de réidentification est particulièrement élevé pour les données de santé, en raison de leur caractère unique et de la possibilité de les croiser avec d'autres sources d'information. L'interopérabilité des systèmes constitue un défi technique et organisationnel majeur. Le système de santé québécois est fragmenté en de multiples établissements et réseaux, chacun utilisant des systèmes d'information différents. Le développement de l'IA en santé suppose une capacité de partage de données qui se heurte aux silos organisationnels et aux incompatibilités techniques existantes. Le Dossier Santé Québec et les efforts de normalisation des données de santé constituent des avancées importantes, mais beaucoup reste à faire. La validation clinique des systèmes d'IA pose des défis méthodologiques spécifiques. Les méthodes traditionnelles d'évaluation clinique, essais contrôlés randomisés, études de cohorte, ne s'appliquent pas toujours facilement aux systèmes d'IA, qui évoluent continuellement et dont les performances peuvent varier selon les populations et les contextes d'utilisation. Des approches de validation adaptées doivent être développées pour s'assurer que les systèmes d'IA déployés en milieu clinique sont sûrs et efficaces. La confiance des professionnels de santé est un facteur déterminant de l'adoption de l'IA. Les médecins, les infirmières et les autres professionnels de la santé doivent comprendre le fonctionnement des outils d'IA, avoir confiance dans leur fiabilité et être en mesure d'exercer leur jugement clinique en complément de l'analyse algorithmique. La formation des professionnels de santé à l'IA et la mise en place de protocoles clairs d'utilisation sont essentielles. La responsabilité en cas d'erreur algorithmique est une question juridique et éthique non résolue. Si un système d'IA contribue à un diagnostic erroné ou à une décision de traitement inappropriée, qui en porte la responsabilité ? Le développeur du système ? L'établissement de santé qui l'a déployé ? Le professionnel de santé qui a suivi la recommandation algorithmique ? La clarification de cette question est indispensable pour assurer un déploiement responsable de l'IA en santé. ## Le consentement des patients Le consentement éclairé des patients pour l'utilisation de leurs données dans des systèmes d'IA est un enjeu éthique et juridique central. Les patients doivent être informés de manière compréhensible de l'utilisation de l'IA dans leurs soins et de l'utilisation potentielle de leurs données pour l'entraînement de modèles. Les modèles de consentement traditionnels, conçus pour des situations cliniques ponctuelles, doivent être adaptés pour tenir compte des usages multiples et évolutifs des données dans le contexte de l'IA. Le concept de consentement dynamique, qui permet aux patients de moduler leur consentement au fil du temps en fonction des nouveaux usages de leurs données, constitue une piste prometteuse. Des plateformes numériques de gestion du consentement pourraient faciliter cette approche, tout en assurant la traçabilité et la transparence des utilisations. ## Recommandations pour le secteur Le déploiement responsable de l'IA en santé au Québec exige une approche coordonnée impliquant le gouvernement, les établissements de santé, les professionnels, les chercheurs et les patients. Parmi les mesures prioritaires, on peut identifier l'élaboration d'un cadre de gouvernance spécifique à l'IA en santé, la création d'une infrastructure sécurisée de partage de données de santé pour la recherche en IA, le développement de méthodologies de validation clinique adaptées aux systèmes d'IA, la formation systématique des professionnels de santé aux enjeux de l'IA, et la mise en place de mécanismes de participation des patients dans la gouvernance de l'IA en santé. ## Conclusion L'IA a le potentiel de transformer positivement le système de santé québécois, mais ce potentiel ne se réalisera que dans le cadre d'une gouvernance rigoureuse qui place la sécurité des patients, la protection de la vie privée et l'équité au cœur de ses préoccupations. Le Québec dispose des compétences et des institutions nécessaires pour devenir un modèle de gouvernance de l'IA en santé. Il lui revient de mobiliser ces ressources avec détermination et discernement. --- ### Le ROI de l'IA en entreprise : bilan lucide pour les organisations québécoises - URL : https://gouvernance.ai/actualites/roi-ia-entreprise-bilan-2025 - Date : 2025-12-24 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : ROI, retour sur investissement, PME, adoption, maturité numérique, facteurs de succès - Résumé : Seulement une entreprise sur dix rapporte un ROI significatif de ses projets d'IA. Ce bilan lucide oblige les organisations québécoises à repenser leur approche d'adoption. Facteurs de succès identifiés. ## La promesse et la réalité L'enthousiasme autour de l'intelligence artificielle a généré des investissements massifs à l'échelle mondiale, mais les résultats financiers sont loin de correspondre aux attentes. Selon plusieurs analyses publiées en 2025, seulement une entreprise sur dix rapporte un retour sur investissement significatif de ses projets d'IA. Ce constat sobre oblige les organisations québécoises à repenser leur approche de l'adoption de l'IA, en passant de la fascination technologique à une évaluation rigoureuse de la valeur créée. ## L'état des lieux mondial Les données convergent : la majorité des projets d'IA en entreprise peinent à dépasser le stade du prototype ou du projet pilote. Le passage à la production à grande échelle, le fameux « scaling », reste l'obstacle principal. Les raisons sont multiples : la qualité insuffisante des données, l'absence d'intégration avec les processus existants, le manque de compétences internes et la sous-estimation des coûts d'infrastructure et de maintenance. Les grandes entreprises technologiques elles-mêmes admettent que le retour sur leurs investissements massifs en IA, des centaines de milliards de dollars en infrastructure de calcul, ne se matérialisera pas avant plusieurs années. Cette réalité contraste avec le discours marketing ambiant qui présente l'IA comme une solution immédiate à tous les défis organisationnels. Le phénomène du « AI washing », la tendance des entreprises à surestimer leur utilisation de l'IA dans leurs communications, complique encore l'évaluation objective des résultats. Plusieurs entreprises ont fait l'objet de sanctions réglementaires aux États-Unis pour avoir induit les investisseurs en erreur sur leurs capacités réelles en IA. ## Le portrait québécois L'écosystème québécois n'échappe pas à cette réalité. Si le Québec dispose d'atouts considérables en recherche fondamentale et en talent, la traduction de ces avantages en valeur économique concrète reste un défi. Les PME québécoises, qui constituent l'essentiel du tissu économique, font face à des obstacles spécifiques dans l'adoption de l'IA. Le coût d'entrée est souvent prohibitif pour les petites organisations. Le déploiement d'un système d'IA fonctionnel exige non seulement l'acquisition de la technologie, mais aussi la préparation des données, l'adaptation des processus, la formation du personnel et la maintenance continue. Pour une PME de 50 employés, ces investissements peuvent représenter une part significative de son budget annuel. Le manque de compétences spécialisées est un frein majeur. Les experts en IA sont rares et coûteux, et la compétition pour les talents est intense, particulièrement à Montréal où les grandes entreprises technologiques et les laboratoires de recherche absorbent une part importante de la main-d'œuvre qualifiée. Les PME peinent à attirer et à retenir ces profils. La qualité et la disponibilité des données constituent un obstacle structurel. De nombreuses organisations québécoises n'ont pas encore complété leur transformation numérique de base et ne disposent pas de données suffisamment structurées, complètes et fiables pour alimenter des systèmes d'IA performants. ## Les facteurs de succès identifiés Les organisations qui obtiennent un retour sur investissement positif partagent plusieurs caractéristiques. Elles commencent par des cas d'usage ciblés, à fort potentiel de valeur et à complexité maîtrisable, plutôt que de viser des transformations radicales. Elles investissent dans la qualité des données avant d'investir dans les algorithmes. Elles impliquent les utilisateurs finaux dès la conception des solutions. Elles mesurent rigoureusement les résultats et ajustent leurs approches en conséquence. L'alignement stratégique est déterminant. Les projets d'IA qui réussissent sont ceux qui répondent à un besoin métier clairement identifié, plutôt que ceux qui déploient la technologie pour elle-même. La question « quel problème résolvons-nous ? » doit précéder la question « quelle technologie utilisons-nous ? ». La gestion du changement est un facteur critique souvent négligé. L'adoption de l'IA transforme les pratiques de travail, les rôles et les responsabilités. Sans accompagnement adéquat, la résistance des équipes peut compromettre même les projets techniquement réussis. ## Les implications pour la gouvernance Ce bilan a des implications directes pour la gouvernance de l'IA au Québec. Un cadre de gouvernance efficace ne doit pas seulement encadrer les risques de l'IA, il doit aussi favoriser une adoption éclairée et productive. Les obligations de transparence et de documentation, souvent perçues comme des contraintes, peuvent en réalité contribuer au succès des projets en forçant les organisations à clarifier leurs objectifs, à documenter leurs hypothèses et à évaluer rigoureusement leurs résultats. La gouvernance, bien conçue, n'est pas un frein à l'innovation mais un catalyseur de qualité. Le Québec pourrait envisager des mécanismes de soutien spécifiques pour accompagner les PME dans leur adoption de l'IA. Des programmes d'accompagnement, des outils d'évaluation préalable, des guides de bonnes pratiques et des ressources partagées permettraient de démocratiser l'accès à l'IA tout en réduisant les risques d'échec. ## Le piège de l'inaction Si le bilan actuel invite à la prudence, il ne justifie pas l'inaction. Les organisations qui n'investissent pas dans la compréhension et l'expérimentation de l'IA risquent de se trouver désavantagées lorsque la technologie atteindra sa maturité. L'enjeu n'est pas de tout miser sur l'IA aujourd'hui, mais de développer les capacités, compétences, données, processus, qui permettront d'en tirer parti demain. Pour les organisations québécoises, l'approche la plus sage consiste à investir de manière progressive et mesurée, en commençant par les applications où la valeur est la plus évidente et les risques les plus maîtrisables. L'automatisation de tâches répétitives, l'analyse prédictive à partir de données existantes et l'amélioration du service client sont des points d'entrée éprouvés. ## Recommandations Les organisations québécoises devraient réaliser un diagnostic honnête de leur maturité numérique avant d'investir dans l'IA, privilégier des projets pilotes à périmètre limité et à valeur mesurable, investir dans la qualité de leurs données comme prérequis à tout projet d'IA, prévoir un budget d'accompagnement au changement au moins équivalent au budget technologique, et établir des indicateurs de performance clairs dès le lancement de chaque projet. ## Conclusion Le bilan de 2025 sur le retour sur investissement de l'IA est un rappel salutaire : la technologie seule ne crée pas de valeur. C'est l'alignement entre la technologie, les processus, les compétences et la stratégie qui détermine le succès. Pour le Québec, ce constat est une invitation à poursuivre l'adoption de l'IA avec ambition mais aussi avec rigueur, en plaçant la gouvernance au cœur de la démarche plutôt qu'en périphérie. --- ### La protection des données personnelles à l'ère de l'intelligence artificielle au Québec - URL : https://gouvernance.ai/actualites/protection-donnees-personnelles-ia - Date : 2025-12-22 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : données personnelles, vie privée, protection, anonymisation, consentement, surveillance - Résumé : Les données personnelles sont le carburant de l'IA. Leur protection est un enjeu central de gouvernance au Québec. Analyse des défis posés par l'IA en matière de vie privée et des mécanismes de protection disponibles. ## Les données : carburant de l'IA, enjeu de société L'intelligence artificielle se nourrit de données. Les modèles d'apprentissage automatique exigent des volumes considérables de données pour être entraînés, validés et déployés. Or, une proportion significative de ces données concerne directement ou indirectement des personnes physiques : historiques de transactions, dossiers médicaux, comportements en ligne, données de géolocalisation, interactions sur les réseaux sociaux. La protection des données personnelles se trouve donc au cœur des enjeux de gouvernance de l'IA au Québec. ## Le cadre québécois de protection des données face à l'IA Le Québec dispose d'un cadre de protection des données personnelles parmi les plus robustes au Canada. La Loi sur la protection des renseignements personnels dans le secteur privé et la Loi sur l'accès aux documents des organismes publics, toutes deux significativement renforcées par la Loi 25, établissent des obligations claires pour les organisations qui collectent, utilisent et communiquent des renseignements personnels. Ce cadre repose sur des principes fondamentaux qui s'appliquent directement aux systèmes d'IA : la nécessité de la collecte (ne collecter que ce qui est nécessaire aux fins déterminées), la limitation des finalités (ne pas utiliser les données pour des fins non prévues au moment de la collecte), le consentement éclairé, la sécurité des données, le droit d'accès et de rectification, et la transparence. La Commission d'accès à l'information (CAI) est l'organisme de surveillance chargé de veiller au respect de ces lois. Son rôle est crucial dans le contexte de l'IA, car elle dispose du pouvoir d'enquêter, de formuler des recommandations et, depuis la Loi 25, d'imposer des sanctions administratives pécuniaires significatives. ## Les défis spécifiques posés par l'IA L'intelligence artificielle met à l'épreuve les principes traditionnels de protection des données de plusieurs manières. Le volume et la diversité des données requises par les systèmes d'IA entrent en tension avec le principe de minimisation. Un modèle d'apprentissage profond peut nécessiter des millions d'exemples pour atteindre une performance satisfaisante. La tentation de collecter le maximum de données « au cas où » est forte, mais elle contrevient à l'esprit du cadre juridique qui exige que la collecte soit proportionnée aux finalités. La réutilisation des données pose un défi majeur au principe de limitation des finalités. Les jeux de données utilisés pour entraîner un modèle d'IA peuvent servir à des applications très différentes de celles pour lesquelles les données ont été initialement collectées. Un jeu de données assemblé pour améliorer un service de recommandation pourrait être utilisé pour développer un outil de profilage ou de surveillance. Cette polyvalence des données dans le contexte de l'IA rend d'autant plus important le respect scrupuleux des engagements pris envers les personnes concernées. L'inférence constitue un enjeu émergent. Les systèmes d'IA peuvent déduire des informations sensibles à partir de données apparemment anodines. À partir de données de navigation, un algorithme peut inférer des opinions politiques, des problèmes de santé ou une orientation sexuelle. Ces données inférées ne font pas toujours l'objet d'une protection explicite dans le cadre juridique, mais elles soulèvent des préoccupations majeures en matière de vie privée. Les risques de réidentification compromettent l'efficacité de la dépersonnalisation. La Loi 25 facilite l'utilisation de renseignements dépersonnalisés à des fins de recherche et de statistiques. Cependant, la recherche a démontré que la combinaison de multiples sources de données peut permettre de réidentifier des individus dans des jeux de données supposément anonymisés. Ce risque est amplifié par la puissance des techniques d'IA elles-mêmes, qui peuvent être utilisées pour croiser des sources et retrouver l'identité des personnes. ## La vie privée dès la conception : un impératif pour l'IA L'approche de protection de la vie privée dès la conception (Privacy by Design) prend une importance capitale dans le contexte de l'IA. Développée par Ann Cavoukian, ancienne commissaire à l'information et à la protection de la vie privée de l'Ontario, cette approche préconise l'intégration de la protection de la vie privée dans la conception même des systèmes, plutôt que comme un ajout a posteriori. Appliquée aux systèmes d'IA, cette approche se traduit par plusieurs pratiques concrètes. La minimisation des données dès la phase de conception du modèle, en explorant des techniques qui permettent d'atteindre les objectifs visés avec moins de données personnelles. L'utilisation de techniques de protection avancées comme la confidentialité différentielle, l'apprentissage fédéré ou le chiffrement homomorphe. L'intégration de mécanismes de contrôle d'accès granulaires et de journalisation des utilisations de données. La conception de processus de suppression effective des données lorsqu'elles ne sont plus nécessaires. ## L'apprentissage fédéré : une piste prometteuse L'apprentissage fédéré représente une approche particulièrement intéressante pour concilier les besoins en données de l'IA et la protection de la vie privée. Cette technique permet d'entraîner un modèle d'IA de manière distribuée, sans centraliser les données. Chaque participant entraîne le modèle localement sur ses propres données et ne partage que les paramètres mis à jour du modèle, pas les données elles-mêmes. Pour le Québec, cette approche présente un intérêt particulier dans le domaine de la santé, où les données sont à la fois extrêmement sensibles et extrêmement précieuses pour le développement de l'IA. L'apprentissage fédéré pourrait permettre de développer des modèles d'IA performants à partir des données de différents établissements de santé québécois, sans que ces données ne quittent les murs de chaque institution. ## La surveillance et l'application L'efficacité du cadre de protection des données dépend en grande partie de la capacité de l'organisme de surveillance, la CAI, à exercer ses fonctions de manière effective. La Loi 25 a renforcé les pouvoirs de la CAI, mais celle-ci doit disposer des ressources humaines et techniques nécessaires pour comprendre et évaluer les systèmes d'IA, mener des enquêtes sur des pratiques complexes de traitement de données et accompagner les organisations dans leur démarche de conformité. Le développement de compétences techniques au sein de la CAI est un enjeu stratégique. L'évaluation de la conformité d'un système d'IA exige des connaissances spécialisées en apprentissage automatique, en science des données et en sécurité informatique. La CAI doit pouvoir compter sur des équipes capables de comprendre les aspects techniques des systèmes qu'elle est chargée de surveiller. ## Les droits des personnes à l'ère de l'IA Le cadre québécois reconnaît des droits importants aux personnes dont les données sont traitées. Le droit d'accès permet à une personne de connaître les renseignements personnels qu'une organisation détient à son sujet. Le droit de rectification permet de corriger des informations inexactes. Le droit à la portabilité, introduit par la Loi 25, permet à une personne d'obtenir ses renseignements dans un format technologique structuré et couramment utilisé. Dans le contexte de l'IA, l'exercice effectif de ces droits soulève des défis pratiques. Comment une personne peut-elle savoir si ses données ont été utilisées pour entraîner un modèle d'IA ? Comment peut-elle demander la rectification ou la suppression de ses données dans un modèle déjà entraîné ? Ces questions, à la frontière du droit et de la technique, exigent des réponses innovantes que le cadre juridique devra continuer à développer. ## Recommandations pour les organisations Les organisations québécoises qui développent ou utilisent des systèmes d'IA devraient adopter une approche proactive en matière de protection des données. Cela implique de cartographier systématiquement les flux de données personnelles dans leurs systèmes d'IA, de réaliser des EFVP rigoureuses pour tous les projets d'IA, d'investir dans les techniques de protection de la vie privée avancées, de former les équipes de développement aux enjeux de protection des données, de mettre en place des mécanismes de gouvernance interne robustes et de documenter toutes les décisions relatives au traitement des données personnelles. ## Conclusion La protection des données personnelles à l'ère de l'IA est un enjeu fondamental pour le Québec. Le cadre juridique actuel, renforcé par la Loi 25, fournit des outils solides, mais les organisations doivent aller au-delà de la conformité minimale pour gagner et maintenir la confiance des citoyens. Les solutions existent, techniques de protection avancées, approches de conception responsable, mécanismes de gouvernance interne, et les organisations qui les adoptent se positionnent non seulement comme conformes, mais comme des leaders de l'IA responsable. --- ### La fin du projet de loi C-27 et le premier ministre canadien de l'IA : quel avenir pour la gouvernance fédérale ? - URL : https://gouvernance.ai/actualites/fin-projet-loi-c27-ministre-ia-canada - Date : 2025-12-18 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : projet C-27, LIAD, ministre IA, fédéral, Mila, investissement, stratégie nationale - Résumé : La mort du projet C-27 laisse le Canada sans cadre fédéral dédié à l'IA. La nomination d'un ministre de l'IA et un investissement de 925,6 M$ dessinent une nouvelle approche. Implications pour le Québec. ## Un projet de loi mort-né Le 6 janvier 2025, la prorogation du Parlement canadien a sonné le glas du projet de loi C-27, la Loi de 2022 sur la mise en œuvre de la Charte du numérique. Ce texte législatif ambitieux contenait trois composantes : la Loi sur la protection de la vie privée des consommateurs (LPVPC), la Loi sur le Tribunal de la protection des renseignements personnels et des données et, surtout, la Loi sur l'intelligence artificielle et les données (LIAD), qui aurait constitué le premier cadre fédéral spécifique de réglementation de l'IA au Canada. La mort du projet C-27 a laissé le Canada sans cadre législatif fédéral dédié à l'IA, créant un vide réglementaire que les développements technologiques rendent de plus en plus problématique. Ce vide a des conséquences directes pour le Québec, qui doit composer avec l'absence de coordination fédérale tout en maintenant son propre cadre provincial. ## Le premier ministre de l'Intelligence artificielle et de l'Innovation numérique Dans un geste significatif, le premier ministre Mark Carney a nommé le premier ministre fédéral de l'Intelligence artificielle et de l'Innovation numérique du Canada. Cette nomination signale la volonté du gouvernement de faire de l'IA une priorité politique de premier plan et de renouveler la stratégie canadienne en la matière. Le mandat de ce nouveau ministre inclut l'élaboration d'une stratégie nationale renouvelée en matière d'IA, le positionnement du Canada à l'avant-garde de la révolution de l'IA, la coordination des investissements fédéraux en IA et le développement d'un cadre réglementaire approprié. Pour le Québec, cette nomination est à la fois une opportunité et un défi. Une opportunité, car elle ouvre la porte à une coordination fédérale-provinciale plus structurée en matière de gouvernance de l'IA. Un défi, car le Québec devra veiller à ce que ses compétences provinciales soient respectées et que ses spécificités, juridiques, linguistiques et culturelles, soient prises en compte dans la stratégie fédérale. ## L'investissement fédéral de 925,6 millions de dollars Le gouvernement fédéral a annoncé un investissement additionnel de 925,6 millions de dollars canadiens sur cinq ans pour soutenir l'infrastructure souveraine d'IA au Canada. Cet investissement considérable vise à renforcer la capacité de calcul nationale, à soutenir la recherche et le développement, et à assurer que le Canada dispose des infrastructures nécessaires pour demeurer compétitif dans la course mondiale à l'IA. Mila, l'un des trois instituts nationaux d'IA, est situé à Montréal et bénéficiera directement de ces investissements. Le Québec est bien positionné pour capter une part significative de ces fonds, compte tenu de la concentration de son écosystème de recherche et de la qualité de ses infrastructures. ## Les implications du vide réglementaire fédéral L'absence de cadre fédéral spécifique à l'IA a plusieurs conséquences pratiques. Les entreprises canadiennes qui opèrent dans plusieurs provinces font face à un paysage réglementaire fragmenté, avec des exigences qui varient d'une juridiction à l'autre. Les organisations québécoises qui opèrent à l'international ne peuvent pas s'appuyer sur un cadre fédéral de référence dans leurs démarches de conformité vis-à-vis des réglementations étrangères comme l'AI Act. La protection des citoyens canadiens face aux risques de l'IA repose principalement sur des lois qui n'ont pas été conçues pour cette technologie. Le Québec, grâce à la Loi 25 et à son cadre de protection des droits de la personne, dispose d'un filet de sécurité plus robuste que la plupart des provinces canadiennes. Mais ce filet a des limites, notamment pour les enjeux qui relèvent de la compétence fédérale : les télécommunications, le commerce interprovincial, la concurrence et le droit criminel. ## Les leçons de l'échec du projet C-27 L'échec du projet C-27 offre des enseignements pour l'avenir. La LIAD avait été critiquée pour sa portée trop large, pour le manque de précision de certaines obligations et pour l'insuffisance des mécanismes de mise en application. Certains observateurs estimaient que la loi accordait trop de pouvoir discrétionnaire au ministre de l'Innovation pour définir les détails de la réglementation par voie réglementaire, plutôt que de les inscrire dans la loi elle-même. Le prochain cadre fédéral devra tirer les leçons de ces critiques en offrant des obligations claires et prévisibles, en établissant des mécanismes d'application indépendants et dotés de ressources adéquates, en s'articulant de manière cohérente avec les cadres provinciaux existants, en particulier celui du Québec, et en prévoyant des mécanismes d'adaptation à l'évolution rapide des technologies. ## La relation fédérale-provinciale en matière de gouvernance de l'IA La gouvernance de l'IA au Canada s'inscrit dans le cadre du fédéralisme canadien, avec ses possibilités de collaboration mais aussi ses risques de conflits de compétence. Le Québec, fort de sa tradition d'autonomie en matière de droit civil, de protection des données et de droits de la personne, doit être un interlocuteur incontournable dans l'élaboration de la stratégie fédérale. Le modèle de la « similarité substantielle », qui permet au Québec de bénéficier d'une exemption de la législation fédérale sur la protection de la vie privée dans le secteur privé en raison de la robustesse de son propre cadre, pourrait servir d'inspiration. Un mécanisme similaire pourrait être envisagé pour la gouvernance de l'IA : les provinces disposant d'un cadre de gouvernance de l'IA jugé substantiellement similaire au cadre fédéral pourraient bénéficier d'une exemption, évitant ainsi la duplication des obligations. ## Conclusion Le paysage de la gouvernance fédérale de l'IA au Canada est en pleine reconfiguration. La mort du projet C-27, la nomination d'un ministre dédié et l'investissement massif dans l'infrastructure d'IA dessinent les contours d'une nouvelle approche dont les détails restent à définir. Le Québec, avec son cadre juridique avancé et son écosystème de recherche de premier plan, doit faire entendre sa voix dans ce processus pour s'assurer que la stratégie fédérale renforce plutôt qu'elle ne complique la gouvernance québécoise de l'IA. --- ### L'éthique de l'intelligence artificielle : perspectives québécoises - URL : https://gouvernance.ai/actualites/ethique-ia-perspectives-quebecoises - Date : 2025-12-17 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : éthique, valeurs, Déclaration de Montréal, responsabilité, principes éthiques, réflexion - Résumé : Au-delà de la conformité juridique, l'éthique constitue une boussole indispensable pour le développement de l'IA. Le Québec a développé une approche distincte, ancrée dans sa tradition de réflexion éthique appliquée. ## Au-delà de la conformité : l'éthique comme boussole La gouvernance de l'intelligence artificielle ne saurait se réduire au respect des lois et des règlements. Le cadre juridique établit un socle minimal de protection, mais il ne couvre pas l'ensemble des enjeux que soulève l'IA. C'est précisément là qu'intervient l'éthique : comme réflexion sur les valeurs, les principes et les finalités qui doivent orienter le développement et l'utilisation de cette technologie. Le Québec, fort d'une tradition de réflexion éthique appliquée et d'une sensibilité sociale affirmée, a développé une approche distincte en matière d'éthique de l'IA. ## La tradition éthique québécoise et l'IA Le Québec possède une tradition riche en matière d'éthique appliquée, notamment dans le domaine de la bioéthique et de l'éthique de la recherche. Les comités d'éthique de la recherche des universités et des établissements de santé québécois ont développé, au fil des décennies, une expertise reconnue dans l'évaluation des enjeux éthiques liés aux technologies et à la recherche impliquant des êtres humains. Cette tradition constitue un terreau fertile pour la réflexion sur l'éthique de l'IA. La Commission de l'éthique en science et en technologie (CEST), organisme indépendant qui conseille le gouvernement du Québec, a contribué à la réflexion sur les enjeux éthiques des technologies numériques et de l'IA. Ses avis et rapports offrent un éclairage précieux sur les questions de fond que soulèvent ces technologies pour la société québécoise. L'approche québécoise de l'éthique de l'IA se caractérise par plusieurs traits distinctifs. Elle est participative, comme en témoigne la démarche de cocréation citoyenne ayant mené à la Déclaration de Montréal. Elle est interdisciplinaire, mobilisant des perspectives issues de la philosophie, du droit, des sciences sociales, de l'informatique et de la santé. Elle est attentive aux enjeux de justice sociale et d'équité, reflétant les valeurs de solidarité qui caractérisent la société québécoise. ## Les principes éthiques fondamentaux Plusieurs principes éthiques fondamentaux structurent la réflexion québécoise sur l'IA. Le principe de bienfaisance et de non-malfaisance exige que les systèmes d'IA soient conçus et utilisés pour contribuer au bien-être des personnes et de la société, tout en minimisant les risques de préjudice. Dans le contexte québécois, ce principe se traduit par une attention particulière aux impacts des systèmes d'IA sur les populations vulnérables et sur les communautés marginalisées. Le principe d'autonomie reconnaît le droit des personnes à prendre des décisions éclairées concernant l'utilisation de l'IA qui les affecte. Il implique la transparence sur le recours à l'IA, la possibilité de comprendre les décisions algorithmiques et le droit de s'y opposer. Ce principe est intimement lié aux dispositions de la Loi 25 sur la transparence des décisions automatisées, mais il va au-delà du cadre juridique en englobant une exigence plus large d'autodétermination informationnelle. Le principe d'équité et de non-discrimination exige que les systèmes d'IA ne reproduisent pas, n'amplifient pas et ne créent pas de nouvelles formes de discrimination. Au Québec, ce principe résonne particulièrement avec les protections offertes par la Charte des droits et libertés de la personne et avec les préoccupations relatives à l'équité envers les Premiers Peuples, les communautés racisées, les personnes en situation de handicap et les autres groupes historiquement marginalisés. Le principe de responsabilité implique que les organisations qui développent et déploient des systèmes d'IA assument la responsabilité de leurs impacts. Cela suppose la mise en place de mécanismes de reddition de comptes, la traçabilité des décisions algorithmiques et la possibilité pour les personnes affectées d'obtenir réparation en cas de préjudice. Le principe de transparence exige que le fonctionnement des systèmes d'IA soit compréhensible et vérifiable. Ce principe se décline en transparence sur le recours à l'IA, en explicabilité des décisions algorithmiques et en auditabilité des systèmes. ## Les enjeux éthiques spécifiques au contexte québécois Certains enjeux éthiques revêtent une importance particulière dans le contexte québécois. La question linguistique est un enjeu éthique de premier plan. Les systèmes d'IA, souvent développés à partir de données majoritairement anglophones, peuvent présenter des performances inférieures en français, ce qui crée une inégalité d'accès et de qualité de service pour les francophones. Développer et déployer des systèmes d'IA qui fonctionnent de manière équitable en français est un impératif éthique autant que culturel et politique. Les droits des Premiers Peuples dans le contexte de l'IA constituent un enjeu crucial. Les systèmes d'IA peuvent affecter les communautés autochtones de manières spécifiques, que ce soit par l'utilisation de leurs données sans consentement adéquat, par le renforcement de biais systémiques dans les services publics ou par l'impact sur les langues et les cultures autochtones. La gouvernance éthique de l'IA au Québec doit prendre en compte les principes de souveraineté des données autochtones et de consentement préalable, libre et éclairé des communautés concernées. L'impact de l'IA sur le tissu social québécois est un autre enjeu majeur. L'automatisation peut fragiliser des secteurs d'emploi importants pour l'économie régionale. Les systèmes de recommandation et de personnalisation peuvent contribuer à la polarisation du débat public. L'utilisation de l'IA dans les services publics peut créer des fractures numériques entre les populations qui maîtrisent les technologies et celles qui en sont exclues. L'éthique de l'IA doit intégrer ces préoccupations sociales et veiller à ce que le progrès technologique ne se fasse pas au détriment de la cohésion sociale. ## De l'éthique aux pratiques Traduire les principes éthiques en pratiques organisationnelles concrètes est le défi central de l'éthique appliquée de l'IA. Plusieurs mécanismes peuvent y contribuer. Les comités d'éthique de l'IA, au sein des organisations, peuvent jouer un rôle consultatif dans l'évaluation des projets d'IA à risque élevé. Ces comités, composés de personnes aux expertises diversifiées, peuvent examiner les implications éthiques d'un projet, formuler des recommandations et assurer un suivi des mesures mises en place. Les évaluations d'impact algorithmique (EIA) constituent un outil structurant pour intégrer la réflexion éthique dans le cycle de développement des systèmes d'IA. Allant au-delà de l'EFVP centrée sur la vie privée, l'EIA examine l'ensemble des impacts potentiels d'un système, sur l'équité, l'autonomie, la transparence, la sécurité et le bien-être, et propose des mesures d'atténuation. La formation éthique des professionnels de l'IA est un levier essentiel. Les concepteurs, les développeurs et les gestionnaires de systèmes d'IA doivent être outillés pour reconnaître les enjeux éthiques et y répondre de manière adéquate. Les programmes de formation en IA au Québec intègrent de plus en plus des modules d'éthique, mais des efforts supplémentaires sont nécessaires pour que cette dimension devienne véritablement transversale. La participation citoyenne est une composante distinctive de l'approche québécoise. La Déclaration de Montréal a démontré la faisabilité et la valeur d'une démarche participative en matière d'éthique de l'IA. Cette approche doit être poursuivie et approfondie pour s'assurer que les citoyens ont voix au chapitre dans les décisions qui affectent leur quotidien. ## Les limites de l'approche éthique L'éthique, aussi importante soit-elle, ne saurait constituer à elle seule un cadre de gouvernance suffisant. Les principes éthiques sont souvent formulés de manière abstraite et peuvent se prêter à des interprétations divergentes. Ils n'ont pas de force contraignante en eux-mêmes et leur application dépend de la bonne volonté des acteurs. L'éthique peut aussi être instrumentalisée, l'« ethics washing » désigne la pratique consistant à afficher des principes éthiques sans les mettre véritablement en œuvre. C'est pourquoi l'éthique doit être articulée avec le droit, avec les mécanismes institutionnels de surveillance et de contrôle, et avec les normes techniques. L'éthique oriente, le droit contraint, les institutions surveillent et les normes techniques opérationnalisent. C'est la combinaison de ces quatre dimensions qui permet une gouvernance véritablement efficace de l'IA. ## Conclusion Le Québec a développé une approche éthique de l'IA qui se distingue par son caractère participatif, interdisciplinaire et socialement ancré. Cette approche constitue un atout précieux pour relever les défis de la gouvernance de l'IA. Mais elle doit continuer à évoluer, à s'enrichir de l'expérience et à se traduire en pratiques concrètes pour maintenir sa pertinence et son efficacité. L'éthique de l'IA n'est pas un état à atteindre : c'est un processus continu de réflexion, de dialogue et d'adaptation que chaque professionnel et chaque organisation doit s'approprier. --- ### Le Règlement européen sur l'IA (AI Act) en 2026 : leçons concrètes pour le Québec - URL : https://gouvernance.ai/actualites/ai-act-europeen-lecons-quebec - Date : 2025-12-14 - Catégorie : veille - Auteur : florian-brobst - Mots-clés : AI Act, Europe, réglementation, classification des risques, conformité, effet Bruxelles - Résumé : L'AI Act européen entre dans sa phase décisive en 2026. Approche par les risques, interdictions, obligations pour les systèmes à haut risque : les leçons concrètes que le Québec peut en tirer. ## L'AI Act entre dans sa phase décisive Le Règlement européen sur l'intelligence artificielle est entré dans sa phase d'application la plus significative. Après l'entrée en vigueur des obligations de littératie en IA en février 2025 et des règles de gouvernance et obligations pour les modèles d'IA à usage général en août 2025, l'année 2026 voit l'application des règles de transparence et, progressivement, des obligations pour les systèmes à haut risque. La Commission européenne a toutefois proposé en novembre 2025 de reporter l'échéance des systèmes à haut risque à décembre 2027 au plus tard, reconnaissant la complexité de la mise en conformité. Pour le Québec, l'AI Act n'est pas seulement un règlement étranger : c'est un laboratoire réglementaire dont les leçons sont directement exploitables. ## L'approche par les risques : un modèle transposable L'architecture fondée sur le risque de l'AI Act offre un cadre logique que le Québec pourrait adapter. La classification en quatre niveaux, risque inacceptable (interdit), haut risque (obligations strictes), risque limité (transparence) et risque minimal (libre), permet de concentrer les obligations réglementaires là où les enjeux sont les plus critiques, sans imposer de fardeau disproportionné aux applications à faible risque. Pour le Québec, une classification adaptée pourrait tenir compte des spécificités locales. Les systèmes d'IA utilisés dans le réseau de la santé québécois, dans les services sociaux, dans l'éducation et dans la justice pourraient être classés comme à haut risque, avec des obligations proportionnées. Les systèmes de recommandation de contenu et les agents conversationnels pourraient relever de la catégorie de risque limité, avec des obligations de transparence. ## Les interdictions : tracer les lignes rouges L'AI Act interdit certaines pratiques jugées inacceptables : la notation sociale (social scoring), la manipulation subliminale, l'exploitation de vulnérabilités de personnes vulnérables et certaines formes de reconnaissance faciale en temps réel dans les espaces publics. Ces interdictions reflètent des choix de valeurs fondamentaux sur les limites de l'utilisation de l'IA. Le Québec pourrait s'inspirer de cette approche pour définir ses propres lignes rouges, en tenant compte de ses valeurs et de son cadre constitutionnel. La Charte des droits et libertés de la personne offre déjà un socle pour justifier l'interdiction de certaines applications d'IA particulièrement attentatoires aux droits fondamentaux. ## Les obligations pour les systèmes à haut risque Les exigences imposées aux systèmes d'IA à haut risque par l'AI Act constituent un référentiel détaillé dont les organisations québécoises peuvent s'inspirer, même en l'absence de législation locale équivalente. Ces exigences incluent un système de gestion des risques tout au long du cycle de vie, des critères de qualité et de gouvernance des données d'entraînement, une documentation technique exhaustive, la tenue de registres et la journalisation des opérations, la transparence envers les utilisateurs, des mesures de surveillance humaine, et des exigences de précision, de robustesse et de cybersécurité. Les entreprises québécoises qui exportent vers l'Europe ou qui traitent des données de citoyens européens sont directement soumises à ces obligations, en raison de la portée extraterritoriale du règlement. Mais même les organisations qui n'opèrent qu'au Québec gagneraient à adopter ces bonnes pratiques, qui constituent un standard de référence international. ## Les leçons des premières difficultés d'application Les premiers mois d'application de l'AI Act ont révélé des défis qui offrent des leçons précieuses pour le Québec. La complexité de la classification des systèmes s'est avérée plus grande que prévu. Déterminer si un système d'IA relève de la catégorie à haut risque exige une analyse détaillée de son contexte d'utilisation, ce qui génère une incertitude juridique pour les organisations. Le Québec devrait veiller à définir des critères de classification clairs et à fournir des lignes directrices pratiques. Le coût de la conformité pèse lourdement sur les PME. Les exigences de documentation, d'évaluation et de surveillance représentent un investissement significatif. Le Québec devrait prévoir des mécanismes de soutien pour les petites organisations, comme des guides simplifiés, des outils en libre accès et des programmes d'accompagnement. La coordination entre les autorités nationales de surveillance reste un défi. Chaque État membre de l'UE désigne ses propres autorités compétentes, ce qui peut mener à des interprétations divergentes. Le Québec, en concevant son propre cadre, a l'avantage de pouvoir centraliser la surveillance auprès d'un nombre limité d'organismes. ## L'effet Bruxelles et ses implications pour le Québec L'AI Act exerce un « effet Bruxelles », une influence normative qui dépasse les frontières de l'UE. Les entreprises technologiques internationales tendent à aligner leurs pratiques sur les normes les plus exigeantes pour simplifier leur conformité mondiale. Les entreprises québécoises qui adoptent les standards de l'AI Act se positionnent donc avantageusement pour opérer dans un environnement réglementaire mondial convergent. Cet effet représente aussi une opportunité stratégique pour le Québec. En alignant son propre cadre sur les principes de l'AI Act tout en l'adaptant à ses spécificités, le Québec faciliterait les échanges commerciaux avec l'Europe, attirerait des entreprises soucieuses de conformité et renforcerait sa crédibilité internationale en matière de gouvernance de l'IA. ## Recommandations Le Québec devrait étudier en profondeur l'expérience de mise en œuvre de l'AI Act pour en tirer des enseignements applicables, engager un dialogue avec les autorités européennes pour faciliter l'interopérabilité des cadres, développer un cadre de classification des risques adapté au contexte québécois, et prévoir des mesures de soutien pour les PME dans leur démarche de conformité. ## Conclusion L'AI Act européen est le laboratoire réglementaire le plus ambitieux au monde en matière d'IA. Ses succès et ses difficultés offrent au Québec un terrain d'apprentissage inestimable pour concevoir son propre modèle de gouvernance. L'enjeu n'est pas de copier le règlement européen, mais d'en extraire les principes et les mécanismes les plus pertinents pour construire un cadre québécois adapté, efficace et à la hauteur des défis posés par l'intelligence artificielle. --- ### La stratégie québécoise en intelligence artificielle : ambitions, réalisations et perspectives - URL : https://gouvernance.ai/actualites/strategie-quebecoise-ia - Date : 2025-12-13 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : stratégie, Mila, IVADO, Scale AI, Déclaration de Montréal, OBVIA, écosystème - Résumé : Le Québec a fait de l'IA un axe stratégique de développement. De Mila à IVADO, de la Déclaration de Montréal à Scale AI, retour sur les investissements, réalisations et défis de la stratégie québécoise. ## Un engagement politique fort Le Québec a fait de l'intelligence artificielle un axe stratégique de son développement économique et social. Depuis le milieu des années 2010, le gouvernement québécois a multiplié les investissements et les initiatives pour positionner la province comme un acteur incontournable de l'écosystème mondial de l'IA. Cette stratégie repose sur un triptyque : excellence en recherche fondamentale, développement d'un tissu industriel dynamique et encadrement responsable de la technologie. ## Les investissements structurants La Stratégie québécoise de recherche et d'investissement en innovation (SQRI), dévoilée en 2017, a consacré des investissements majeurs en intelligence artificielle. Le gouvernement a également participé au financement de la Stratégie pancanadienne en matière d'intelligence artificielle du gouvernement fédéral, qui a injecté des sommes considérables dans l'écosystème de recherche canadien, dont une part significative a bénéficié aux institutions montréalaises. Ces investissements se sont traduits par le renforcement des capacités de recherche de Mila, le soutien à IVADO et à Scale AI (supergrappe canadienne en intelligence artificielle et chaîne d'approvisionnement), la création de programmes de formation spécialisés dans les universités québécoises et le financement de projets de transfert technologique vers les entreprises. Le gouvernement du Québec a également investi dans la transformation numérique de l'État, avec l'ambition d'intégrer l'IA dans les services publics pour améliorer leur efficacité et leur accessibilité. Le Secrétariat du Conseil du trésor et le ministère de la Cybersécurité et du Numérique ont piloté plusieurs initiatives en ce sens, incluant l'adoption de cadres de référence pour l'utilisation responsable de l'IA dans l'administration publique. ## L'écosystème montréalais : un avantage compétitif mondial Montréal s'est imposée comme l'une des capitales mondiales de l'intelligence artificielle. Plusieurs facteurs expliquent cette position exceptionnelle. Mila, fondé et longtemps dirigé par Yoshua Bengio, lauréat du prix Turing, est l'un des plus importants laboratoires de recherche en apprentissage profond au monde. Avec des centaines de chercheurs et d'étudiants, l'institut produit une recherche de premier plan et forme la prochaine génération de spécialistes de l'IA. Au-delà de la recherche fondamentale, Mila s'est engagé activement dans la réflexion sur les enjeux sociétaux de l'IA, notamment à travers ses travaux sur l'IA sûre et bénéfique. IVADO, l'Institut de valorisation des données, fédère l'expertise de plusieurs universités montréalaises, l'Université de Montréal, Polytechnique Montréal et HEC Montréal, pour promouvoir l'utilisation des données et de l'IA dans tous les secteurs de l'économie. Son rôle de pont entre la recherche et l'industrie est crucial pour le transfert des connaissances et le développement de solutions concrètes. Scale AI, la supergrappe canadienne axée sur l'intelligence artificielle et les chaînes d'approvisionnement, soutient des projets collaboratifs entre l'industrie et la recherche. Elle contribue à l'adoption de l'IA par les entreprises québécoises et canadiennes, tout en finançant des programmes de formation et de développement des talents. À ces institutions s'ajoutent des dizaines de laboratoires universitaires, de centres de recherche collégiaux (CCTT), de start-ups et d'entreprises établies qui contribuent à la vitalité de l'écosystème. Les grandes entreprises technologiques internationales, Google, Meta, Microsoft, Samsung, entre autres, ont établi des laboratoires de recherche en IA à Montréal, attirées par la concentration de talents et l'environnement de recherche favorable. ## L'OBVIA : la dimension sociétale L'Observatoire international sur les impacts sociétaux de l'intelligence artificielle et du numérique (OBVIA), rattaché à l'Université Laval, joue un rôle unique dans l'écosystème québécois. Cet observatoire interdisciplinaire se consacre à l'étude des impacts de l'IA et du numérique sur la société, en mobilisant des chercheurs issus des sciences sociales, du droit, de l'éthique, de la santé et des sciences de l'ingénieur. Les travaux de l'OBVIA alimentent directement la réflexion sur la gouvernance de l'IA au Québec. Ses publications, ses événements et ses collaborations avec les décideurs publics contribuent à éclairer les politiques publiques et à sensibiliser les acteurs sociaux aux enjeux de l'IA. La perspective interdisciplinaire de l'OBVIA est particulièrement précieuse dans un domaine où les dimensions techniques, éthiques, juridiques et sociales sont indissociables. ## La Déclaration de Montréal pour un développement responsable de l'IA Initiative phare de la démarche québécoise en matière d'éthique de l'IA, la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle a été publiée en décembre 2018 au terme d'une démarche participative d'une ampleur sans précédent. Pilotée par l'Université de Montréal, cette démarche a mobilisé des citoyens, des experts, des organisations de la société civile et des acteurs industriels dans une réflexion collective sur les principes devant guider le développement de l'IA. La Déclaration propose dix principes fondamentaux, bien-être, autonomie, protection de l'intimité et de la vie privée, solidarité, participation démocratique, équité, inclusion de la diversité, prudence, responsabilité et développement soutenable. Ces principes ne sont pas juridiquement contraignants, mais ils ont exercé une influence significative sur la réflexion québécoise et internationale en matière de gouvernance de l'IA. ## La formation et le développement des talents La stratégie québécoise accorde une importance majeure à la formation et au développement des talents en IA. Les universités québécoises ont développé des programmes de premier cycle, de cycles supérieurs et de formation continue en intelligence artificielle et en science des données. Les programmes coopératifs et les stages en entreprise favorisent l'insertion professionnelle des diplômés. Des initiatives de requalification de la main-d'œuvre ont également été mises en place pour aider les travailleurs des secteurs affectés par l'automatisation à acquérir de nouvelles compétences. Ces programmes, souvent développés en partenariat avec les organismes sectoriels de main-d'œuvre et les établissements d'enseignement, constituent un élément essentiel de la stratégie pour s'assurer que les bénéfices de l'IA profitent au plus grand nombre. ## Les défis de la stratégie Malgré ses réussites, la stratégie québécoise en IA fait face à plusieurs défis. La rétention des talents demeure une préoccupation constante, les grandes entreprises technologiques internationales exerçant une pression concurrentielle forte sur le bassin de main-d'œuvre qualifiée. L'adoption de l'IA par les PME québécoises reste insuffisante, freinée par des barrières de coûts, de compétences et de culture organisationnelle. La concentration de l'écosystème à Montréal soulève des questions d'équité régionale. Les entreprises et institutions situées dans les autres régions du Québec ont un accès plus limité aux ressources, à l'expertise et aux partenariats disponibles dans la métropole. Des efforts de décentralisation et de soutien aux initiatives régionales en IA sont nécessaires pour assurer une répartition plus équitable des retombées. Enfin, l'articulation entre les ambitions de développement économique et les impératifs de gouvernance responsable reste un exercice délicat. La tentation de privilégier la compétitivité et l'attractivité au détriment de la protection des droits et des valeurs est un risque constant. La stratégie québécoise doit continuer à affirmer que la responsabilité n'est pas un frein à l'innovation, mais sa condition de durabilité. ## Perspectives d'avenir La prochaine phase de la stratégie québécoise en IA devra relever plusieurs défis : maintenir l'excellence en recherche dans un contexte de compétition internationale accrue, accélérer l'adoption de l'IA dans l'ensemble du tissu économique québécois, renforcer les mécanismes de gouvernance et de surveillance, et assurer que le développement de l'IA contribue aux objectifs de développement durable et de justice sociale du Québec. Le Québec dispose des atouts nécessaires pour relever ces défis : un écosystème de recherche de classe mondiale, une main-d'œuvre qualifiée, un cadre juridique en renforcement et une tradition de dialogue social. Il lui appartient désormais de transformer ces atouts en une stratégie cohérente et intégrée, capable de concilier ambition technologique et responsabilité sociétale. --- ### Retour sur notre première table ronde : Loi 25 et intelligence artificielle - URL : https://gouvernance.ai/actualites/table-ronde-loi-25 - Date : 2025-12-12 - Catégorie : evenement - Auteur : florian-brobst - Mots-clés : Loi 25, protection des donn\u00e9es, table ronde, gouvernance IA, Qu\u00e9bec, renseignements personnels - Résumé : Le 5 décembre dernier, le Cercle a organisé sa première table ronde consacrée à l'intersection entre la Loi 25 sur la protection des renseignements personnels et le déploiement de l'IA. ## Un premier événement très suivi Le **5 décembre 2025**, le Cercle de Gouvernance de l'IA a tenu sa toute première table ronde au Centre PHI de Montréal. L'événement, intitulé **"Loi 25 et IA : naviguer dans la complexité"**, a rassemblé plus de **80 participants** issus des secteurs public, privé et académique. ## Les points clés abordés Les échanges ont mis en lumière plusieurs enjeux concrets auxquels font face les organisations québécoises : - **Consentement et données d'entraînement** : Comment concilier les exigences de consentement de la Loi 25 avec les besoins massifs en données des modèles d'IA ? Les panélistes ont exploré les bases juridiques alternatives et les approches de minimisation des données. - **Droit à l'explication** : La Loi 25 accorde aux citoyens le droit de comprendre les décisions automatisées les concernant. Les participants ont discuté des défis techniques liés à l'explicabilité des systèmes d'IA complexes. - **Évaluations des facteurs relatifs à la vie privée (EFVP)** : Les intervenants ont partagé des retours d'expérience sur la réalisation d'EFVP adaptées aux projets impliquant de l'intelligence artificielle. ## Témoignages et prochaines étapes Les participants ont salué la qualité des échanges et la pertinence des sujets abordés. Plusieurs ont exprimé le souhait de voir le Cercle organiser davantage d'événements thématiques de ce type. Fort de ce succès, le Cercle prévoit une **série de tables rondes trimestrielles** en 2026, chacune portant sur un aspect spécifique de la gouvernance de l'IA. Le prochain événement est prévu pour **mars 2026** et portera sur la gouvernance des modèles de fondation. --- ### Le droit d'auteur et l'IA : une bataille juridique mondiale aux répercussions québécoises - URL : https://gouvernance.ai/actualites/droit-auteur-ia-bataille-juridique - Date : 2025-12-09 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : droit d'auteur, propriété intellectuelle, fair use, créateurs, entraînement, licences - Résumé : Plus de 70 poursuites contre les entreprises d'IA pour violation du droit d'auteur. Cette bataille juridique mondiale a des répercussions directes sur les créateurs et les développeurs d'IA québécois. ## Un séisme dans le monde de la propriété intellectuelle L'intelligence artificielle générative a déclenché une vague sans précédent de litiges en matière de droit d'auteur. Plus de 70 poursuites ont été intentées par des titulaires de droits contre les entreprises d'IA, et les montants en jeu sont colossaux : en janvier 2026, Universal Music, Concord Music Group et ABKCO Music ont déposé une poursuite de 3,1 milliards de dollars américains contre Anthropic, alléguant que le modèle Claude a été entraîné à partir de copies piratées d'œuvres protégées. Ces litiges redéfinissent les frontières de la propriété intellectuelle et auront des répercussions directes sur l'écosystème québécois de l'IA. ## L'enjeu fondamental : l'entraînement des modèles Au cœur de ces litiges se trouve une question juridique fondamentale : l'utilisation d'œuvres protégées par le droit d'auteur pour entraîner des modèles d'IA constitue-t-elle une violation du droit d'auteur ou relève-t-elle de l'utilisation équitable (fair use) ? Les entreprises d'IA soutiennent que l'entraînement des modèles sur de vastes corpus de textes, d'images et de musique constitue une utilisation transformatrice des œuvres, analogue à la lecture humaine, et qu'elle ne porte pas atteinte aux intérêts économiques des titulaires de droits. Les créateurs et les éditeurs répliquent que l'extraction massive de leurs œuvres sans autorisation ni rémunération constitue une appropriation illégitime de leur travail, qui permet aux entreprises d'IA de générer des revenus considérables aux dépens des créateurs originaux. Les tribunaux américains commencent à se prononcer sur ces questions. Les premières décisions sur l'utilisation équitable ne sont toutefois pas attendues avant l'été 2026, laissant le monde de la propriété intellectuelle dans une incertitude prolongée. Parmi les affaires les plus suivies figurent les poursuites contre Google, OpenAI, Anthropic et Meta. ## Le cadre juridique canadien et québécois Au Canada, la Loi sur le droit d'auteur offre un cadre distinct de celui des États-Unis. L'exception d'utilisation équitable canadienne (fair dealing) est plus restrictive que le fair use américain, car elle est limitée à des fins spécifiques : recherche, étude privée, éducation, parodie, satire, critique, compte rendu et communication de nouvelles. L'application de cette exception à l'entraînement de modèles d'IA commerciaux est hautement incertaine. L'argument selon lequel l'entraînement constitue de la « recherche » au sens de la loi est contestable lorsque le but ultime est commercial. Le Québec, avec son système de droit civil, offre des perspectives additionnelles en matière de droits moraux et patrimoniaux des auteurs. Le gouvernement canadien a lancé des consultations sur la modernisation du droit d'auteur à l'ère de l'IA, mais aucune réforme législative n'a encore été adoptée. L'Office de la propriété intellectuelle du Canada (OPIC) a publié des orientations préliminaires, mais la clarification juridique définitive viendra probablement des tribunaux. ## Les enjeux pour les créateurs québécois Les créateurs québécois, auteurs, musiciens, artistes visuels, cinéastes, journalistes, sont directement concernés par ces développements. Leurs œuvres, publiées en ligne ou numérisées, ont potentiellement été utilisées pour entraîner des modèles d'IA sans leur consentement ni compensation. L'industrie culturelle québécoise, déjà fragilisée par la numérisation et la concurrence des plateformes internationales, fait face à une nouvelle menace. Les systèmes d'IA générative peuvent produire des textes, de la musique et des images qui rivalisent avec les créations humaines, à un coût marginal quasi nul. Sans mécanismes de rémunération équitable, le modèle économique de la création culturelle est compromis. Les sociétés de gestion collective québécoises, la SODRAC, Copibec, la SOCAN, jouent un rôle crucial dans la protection des droits des créateurs. Elles doivent adapter leurs mandats et leurs outils pour couvrir les usages liés à l'IA, négocier des licences avec les entreprises d'IA et redistribuer les revenus aux ayants droit. ## Les enjeux pour les développeurs d'IA québécois Les entreprises et les chercheurs québécois qui développent des modèles d'IA sont également affectés. L'incertitude juridique sur la licéité de l'entraînement à partir d'œuvres protégées crée un risque de poursuites qui pèse sur l'innovation. Les start-ups québécoises n'ont pas les ressources financières pour faire face à des litiges complexes en matière de propriété intellectuelle. Plusieurs approches émergent pour atténuer ce risque. L'utilisation de données d'entraînement sous licence offre une sécurité juridique mais augmente les coûts. Les corpus de données ouvertes, libres de droits, constituent une alternative mais peuvent être moins diversifiés et moins représentatifs. Les techniques de génération synthétique de données d'entraînement permettent de réduire la dépendance envers les œuvres protégées. ## La question des œuvres générées par l'IA Un autre volet du débat concerne la protection par le droit d'auteur des œuvres générées par l'IA. Peut-on obtenir un droit d'auteur sur une image, un texte ou une musique produits par un système d'IA ? La réponse, dans la plupart des juridictions, est négative : le droit d'auteur exige une création originale par un auteur humain. Mais les œuvres qui résultent d'une collaboration significative entre un humain et un outil d'IA soulèvent des questions plus nuancées. Au Canada et au Québec, cette question n'a pas encore été tranchée par les tribunaux. Les créateurs qui utilisent l'IA comme outil dans leur processus créatif ont besoin de clarté juridique sur le statut de leurs œuvres. ## Recommandations pour le Québec Le Québec devrait plaider auprès du gouvernement fédéral pour une modernisation rapide de la Loi sur le droit d'auteur intégrant les enjeux de l'IA, soutenir les sociétés de gestion collective dans l'adaptation de leurs mandats aux usages liés à l'IA, encourager le développement de mécanismes de licence pour l'utilisation d'œuvres protégées dans l'entraînement de modèles, et investir dans la création de corpus de données francophones libres de droits pour la recherche en IA. ## Conclusion La bataille juridique entre les titulaires de droits d'auteur et les entreprises d'IA redéfinira les règles de la création, de l'innovation et de la culture pour les décennies à venir. Le Québec, avec sa richesse culturelle et son écosystème d'IA dynamique, a un intérêt vital à ce que ces règles soient équilibrées, protégeant les créateurs sans étouffer l'innovation. Les décisions qui seront rendues dans les prochains mois façonneront cet équilibre. --- ### La Loi 25 et ses implications concrètes pour les systèmes d'intelligence artificielle - URL : https://gouvernance.ai/actualites/loi-25-implications-ia - Date : 2025-12-08 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : Loi 25, protection des données, renseignements personnels, EFVP, consentement, conformité - Résumé : La Loi 25 a transformé la protection des renseignements personnels au Québec. Ses implications pour les systèmes d'IA sont profondes : consentement, EFVP, décisions automatisées, profilage. Décryptage complet. ## Une réforme majeure aux répercussions profondes L'adoption de la Loi 25 en septembre 2021 a marqué un tournant dans la protection des renseignements personnels au Québec. Si cette loi ne vise pas spécifiquement l'intelligence artificielle, ses dispositions ont des répercussions profondes sur la manière dont les organisations conçoivent, déploient et exploitent les systèmes d'IA. Pour les professionnels et décideurs québécois, comprendre ces implications est essentiel pour assurer la conformité de leurs projets d'IA et, au-delà, pour bâtir la confiance des citoyens et des clients envers ces technologies. ## L'évaluation des facteurs relatifs à la vie privée : un outil structurant L'une des obligations les plus significatives de la Loi 25 pour les projets d'IA est l'évaluation des facteurs relatifs à la vie privée (EFVP). Toute organisation qui envisage d'acquérir, de développer ou de refondre un système d'information ou de prestation électronique de services impliquant des renseignements personnels doit réaliser une telle évaluation. Dans le contexte de l'IA, cette obligation a une portée considérable. Un projet d'IA typique implique la collecte de volumes importants de données, souvent personnelles, pour l'entraînement des modèles. L'EFVP doit analyser la nécessité de cette collecte au regard des finalités poursuivies, les risques d'atteinte à la vie privée que le système engendre, les mesures de protection mises en place et la proportionnalité entre les avantages recherchés et les atteintes potentielles à la vie privée. Pour les organisations, cela signifie concrètement qu'aucun projet d'IA traitant des données personnelles ne devrait être lancé sans une EFVP préalable. Cette évaluation ne doit pas être un exercice bureaucratique de pure forme : elle doit être menée avec rigueur, impliquer les parties prenantes pertinentes et mener à des actions concrètes pour atténuer les risques identifiés. ## Le consentement : un défi technique et juridique La Loi 25 renforce les exigences en matière de consentement. Celui-ci doit être manifeste, libre, éclairé et donné à des fins spécifiques. Il doit être demandé pour chacune des fins de la collecte, en termes simples et clairs. Ces exigences posent des défis particuliers pour les systèmes d'IA. En matière d'IA, les finalités du traitement peuvent être complexes, multiples ou difficiles à anticiper au moment de la collecte. Un modèle d'apprentissage automatique peut révéler des corrélations inattendues dans les données, soulever de nouvelles questions de recherche ou être réutilisé pour des applications non prévues initialement. La notion de consentement spécifique se heurte à cette réalité de la réutilisation des données, caractéristique de l'écosystème de l'IA. Les organisations doivent donc adopter des pratiques rigoureuses en matière de gestion du consentement : informer clairement les personnes sur les usages prévus de leurs données dans les systèmes d'IA, obtenir un nouveau consentement en cas de changement de finalité, mettre en place des mécanismes effectifs de retrait du consentement et documenter l'ensemble du processus. La Loi 25 prévoit toutefois des exceptions au consentement, notamment pour l'utilisation de renseignements dépersonnalisés à des fins de recherche, de production de statistiques ou d'études. Ces exceptions peuvent faciliter certains projets d'IA, à condition que le processus de dépersonnalisation soit véritablement efficace, un défi technique de taille compte tenu des risques de réidentification inhérents aux jeux de données complexes. ## Le droit à la transparence des décisions automatisées La disposition la plus directement liée à l'IA dans la Loi 25 est celle qui concerne les décisions fondées exclusivement sur un traitement automatisé de renseignements personnels. Les organisations doivent informer la personne concernée, au moment de la décision ou avant, du fait que la décision a été prise de cette manière. Elles doivent également permettre à la personne de présenter ses observations à un membre du personnel en mesure de réviser la décision et de soumettre les renseignements personnels utilisés à la prise de décision à une révision. Cette obligation a des implications opérationnelles majeures pour les organisations qui utilisent l'IA pour prendre des décisions affectant des individus. Elle impose de maintenir une capacité de révision humaine des décisions algorithmiques, de documenter les facteurs ayant mené à la décision, de mettre en place des canaux de communication accessibles pour les personnes souhaitant contester une décision et de former le personnel chargé de la révision aux enjeux propres aux décisions algorithmiques. Il est important de noter que cette obligation ne s'applique qu'aux décisions fondées « exclusivement » sur un traitement automatisé. Les systèmes d'aide à la décision, où un humain intervient dans le processus décisionnel, ne sont pas directement visés. Toutefois, cette distinction est parfois ténue dans la pratique : un système qui recommande une décision avec un taux d'adhésion très élevé de la part de l'opérateur humain peut, de facto, constituer une prise de décision automatisée. ## La gouvernance interne des données La Loi 25 impose aux organisations d'établir et de mettre en œuvre des politiques et des pratiques encadrant leur gouvernance des renseignements personnels. Ces politiques doivent notamment définir les rôles et responsabilités des membres du personnel à l'égard des renseignements personnels, prévoir un processus de traitement des plaintes relatives à la protection des renseignements personnels et établir un cadre pour la conservation et la destruction des renseignements. Pour les organisations qui développent ou utilisent des systèmes d'IA, ces exigences de gouvernance interne se traduisent par la nécessité d'intégrer la protection de la vie privée dans le cycle de vie complet des systèmes d'IA, de la conception à la mise hors service. Cela implique d'adopter une approche de « protection de la vie privée dès la conception » (privacy by design), d'établir des protocoles clairs pour la gestion des jeux de données d'entraînement, de mettre en place des mécanismes de surveillance continue des systèmes déployés et de documenter les décisions prises en matière de protection de la vie privée. ## Les sanctions et les recours La Loi 25 a considérablement renforcé le régime de sanctions applicable. La Commission d'accès à l'information (CAI) dispose désormais du pouvoir d'imposer des sanctions administratives pécuniaires pouvant atteindre 10 millions de dollars ou 2 % du chiffre d'affaires mondial de l'entreprise. Les infractions pénales peuvent entraîner des amendes allant jusqu'à 25 millions de dollars ou 4 % du chiffre d'affaires mondial. La loi prévoit également un droit d'action privé permettant aux personnes ayant subi un préjudice d'obtenir des dommages-intérêts punitifs d'au moins 1 000 dollars en cas d'atteinte illicite et intentionnelle. Ces sanctions constituent un incitatif puissant pour les organisations à prendre au sérieux leurs obligations en matière de protection des renseignements personnels dans le contexte de l'IA. Le risque financier et réputationnel associé à la non-conformité ne peut plus être ignoré. ## Les défis de mise en œuvre La mise en conformité avec la Loi 25 dans le contexte de l'IA soulève plusieurs défis pratiques. La complexité technique des systèmes d'IA rend difficile l'application de certaines obligations, comme l'explication des décisions automatisées pour des modèles de type « boîte noire ». La nature évolutive des modèles d'apprentissage automatique peut compromettre le principe de limitation des finalités. La dépersonnalisation effective des données d'entraînement reste un défi technique non résolu dans de nombreux contextes. Les organisations doivent investir dans la formation de leurs équipes, dans l'adaptation de leurs processus et dans le développement de solutions techniques pour relever ces défis. La collaboration entre juristes, technologues et spécialistes de l'éthique est indispensable pour traduire les exigences légales en pratiques opérationnelles efficaces. ## Conclusion La Loi 25 a posé les fondations d'un encadrement robuste de l'utilisation des données personnelles dans les systèmes d'IA au Québec. Ses exigences en matière d'EFVP, de consentement, de transparence des décisions automatisées et de gouvernance interne constituent un cadre structurant pour les organisations. Celles qui sauront intégrer ces obligations dans leur démarche de développement de l'IA en tireront un avantage compétitif durable, fondé sur la confiance et la responsabilité. Celles qui les négligeront s'exposeront non seulement à des sanctions significatives, mais aussi à une érosion de la confiance de leurs clients et partenaires. --- ### Deepfakes et désinformation : protéger la démocratie québécoise à l'ère de l'IA - URL : https://gouvernance.ai/actualites/deepfakes-desinformation-quebec - Date : 2025-12-05 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : deepfakes, désinformation, démocratie, médias, détection, littératie médiatique - Résumé : Les deepfakes constituent une menace croissante pour la démocratie québécoise. Désinformation politique, fraude financière, exploitation : état de la menace et pistes de solution pour protéger le débat public. ## Une menace en pleine expansion Les deepfakes, ces contenus synthétiques générés par l'intelligence artificielle qui reproduisent de manière hyperréaliste l'apparence et la voix de personnes réelles, sont passés en quelques années d'une curiosité technologique à une menace sociétale majeure. Le Comité consultatif du Conseil des droits de l'homme de l'ONU, réuni en février 2026 à Genève, a qualifié les deepfakes et la désinformation personnalisée de « graves menaces pour la liberté d'expression et le discours démocratique ». Pour le Québec, société démocratique francophone avec un paysage médiatique distinct, les enjeux sont considérables. ## L'état de la menace La technologie de création de deepfakes s'est démocratisée de manière fulgurante. Des outils accessibles en ligne permettent désormais à quiconque de créer des vidéos, des images et des enregistrements audio synthétiques convaincants en quelques minutes. L'émergence de services de « deepfakes as a service » (DaaS) a abaissé la barrière technique au minimum, transformant ce qui était autrefois réservé aux experts en une capacité accessible à tous. Les applications malveillantes se multiplient. La désinformation politique utilise des deepfakes pour attribuer de fausses déclarations à des personnalités publiques, manipuler l'opinion publique et perturber les processus électoraux. La fraude financière exploite des clones vocaux pour se faire passer pour des dirigeants d'entreprise et autoriser des transferts de fonds. L'exploitation sexuelle non consensuelle représente le volume le plus important de deepfakes malveillants, avec des victimes majoritairement féminines. L'usurpation d'identité permet de contourner les systèmes de vérification biométrique. ## Le cadre réglementaire émergent La réponse réglementaire aux deepfakes s'accélère au niveau international. Aux États-Unis, le TAKE IT DOWN Act, signé en mai 2025, criminalise la publication de deepfakes intimes non consensuels avec des peines pouvant atteindre deux ans d'emprisonnement. Les législatures des 50 États ont introduit des projets de loi sur les deepfakes sexuels, et 169 lois ont été adoptées depuis 2022. Le Règlement européen sur l'IA, dont les règles de transparence entreront en vigueur en août 2026, exigera que les contenus générés par IA soient marqués de manière lisible par machine et clairement identifiés comme synthétiques. Au Canada et au Québec, le cadre spécifique aux deepfakes est encore embryonnaire. Le Code criminel canadien offre des protections contre certaines utilisations, la diffamation, le harcèlement, la fraude, mais il n'existe pas de disposition spécifiquement adaptée aux contenus synthétiques. Le droit civil québécois, avec ses protections du droit à l'image, à la réputation et à la vie privée, offre des recours, mais leur application aux deepfakes n'a pas encore été éprouvée devant les tribunaux. ## Les enjeux pour la démocratie québécoise La menace des deepfakes pour la démocratie québécoise est multiforme. En période électorale, des vidéos falsifiées de candidats pourraient être diffusées pour influencer le vote. La polarisation du débat public pourrait être amplifiée par des contenus synthétiques conçus pour attiser les divisions sociales. La confiance envers les médias et les institutions pourrait être érodée par un environnement informationnel où la distinction entre le vrai et le faux devient impossible. Le paradoxe du « dividende du menteur » constitue une menace insidieuse : dans un monde où tout contenu peut être un deepfake, les personnalités publiques peuvent rejeter des contenus authentiques embarrassants en les qualifiant de fabrications. L'existence même de la technologie mine la confiance dans toute forme de preuve audiovisuelle. La dimension linguistique ajoute une couche de complexité. Les outils de détection de deepfakes sont principalement développés pour l'anglais et peuvent être moins performants pour le français québécois. Les médias francophones, avec des ressources plus limitées que les grands médias anglophones, sont plus vulnérables à la diffusion de deepfakes non détectés. ## Les pistes de solution La lutte contre les deepfakes exige une approche multidimensionnelle combinant la technologie, le droit, l'éducation et la coopération institutionnelle. Sur le plan technologique, les systèmes de détection de deepfakes basés sur l'IA, qui analysent les incohérences visuelles, audio et temporelles des contenus synthétiques, se perfectionnent, mais ils sont engagés dans une course aux armements permanente avec les techniques de création. Les standards de provenance du contenu, comme ceux développés par la Coalition for Content Provenance and Authenticity (C2PA), permettent d'attacher des métadonnées cryptographiques aux contenus authentiques, créant une chaîne de confiance vérifiable. Sur le plan juridique, le Québec devrait envisager des dispositions spécifiques sur la création et la diffusion de deepfakes malveillants, des obligations de marquage des contenus synthétiques pour les plateformes et les créateurs, des mécanismes de retrait rapide des deepfakes signalés, et un renforcement des recours civils pour les victimes de deepfakes. Sur le plan éducatif, la littératie médiatique doit être renforcée à tous les niveaux du système éducatif québécois. Les citoyens doivent être outillés pour évaluer de manière critique les contenus qu'ils consomment et partagent, pour reconnaître les signes de manipulation et pour vérifier les sources. Le Directeur général des élections du Québec devrait développer des protocoles de réponse rapide en cas de diffusion de deepfakes en période électorale, en collaboration avec les médias et les plateformes numériques. ## Conclusion Les deepfakes et la désinformation algorithmique constituent l'une des menaces les plus insidieuses que l'IA fait peser sur les sociétés démocratiques. Le Québec ne peut se permettre d'attendre que les dommages se matérialisent avant d'agir. Un cadre de gouvernance proactif, combinant réglementation, technologie et éducation, est indispensable pour protéger l'intégrité du débat public et la confiance des citoyens dans leurs institutions. --- ### Le cadre juridique québécois applicable à l'intelligence artificielle - URL : https://gouvernance.ai/actualites/cadre-juridique-quebecois-ia - Date : 2025-12-04 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : cadre juridique, réglementation, droit québécois, Loi 25, Code civil, Charte des droits - Résumé : Le Québec ne dispose pas encore d'une loi spécifique à l'IA, mais un ensemble de lois existantes encadrent déjà les systèmes d'IA et leurs impacts. Analyse du paysage réglementaire actuel et des évolutions à venir. ## Un paysage réglementaire en mutation Le Québec ne dispose pas, à ce jour, d'une loi spécifiquement consacrée à l'intelligence artificielle. Pour autant, cela ne signifie pas que l'IA évolue dans un vide juridique. Plusieurs lois existantes, tant provinciales que fédérales, s'appliquent directement ou indirectement aux systèmes d'IA et à leurs impacts. L'enjeu pour les professionnels et les décideurs consiste à naviguer dans ce paysage réglementaire composite et à anticiper les évolutions à venir. ## Les fondements constitutionnels et la répartition des compétences Le cadre juridique applicable à l'IA au Québec s'inscrit dans le partage des compétences prévu par la Constitution canadienne. Les compétences provinciales en matière de propriété et de droits civils, d'administration de la justice, d'éducation et de santé donnent au Québec une marge de manœuvre considérable pour encadrer l'IA dans ces domaines. Le droit civil québécois, fondé sur le Code civil du Québec, offre des mécanismes propres en matière de responsabilité, de consentement et de protection de la personne qui peuvent être mobilisés dans le contexte de l'IA. Le gouvernement fédéral, pour sa part, exerce ses compétences en matière de commerce interprovincial et international, de télécommunications, de droit criminel et de défense nationale. La Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) constitue le pendant fédéral en matière de vie privée dans le secteur privé, bien que le Québec bénéficie d'une exemption partielle en raison de la similarité substantielle de sa propre législation. ## La Loi sur la protection des renseignements personnels dans le secteur privé Modernisée en profondeur par la Loi 25 (Loi modernisant des dispositions législatives en matière de protection des renseignements personnels), adoptée en septembre 2021, cette loi constitue le pilier central du cadre applicable à l'IA au Québec. Ses dispositions, entrées en vigueur de manière progressive entre 2022 et 2024, imposent des obligations significatives aux entreprises qui utilisent des systèmes d'IA traitant des renseignements personnels. Parmi les dispositions les plus pertinentes pour l'IA, on retrouve l'obligation de réaliser une évaluation des facteurs relatifs à la vie privée (EFVP) avant tout projet impliquant la collecte, l'utilisation ou la communication de renseignements personnels. Cette obligation est particulièrement importante pour les projets d'IA, qui reposent massivement sur le traitement de données. La loi exige également le consentement manifeste, libre et éclairé des personnes concernées, un défi de taille lorsque les finalités du traitement par IA sont complexes ou évolutives. La Loi 25 introduit aussi le droit à l'explication pour les décisions fondées exclusivement sur un traitement automatisé de renseignements personnels. Ce droit, qui entre en résonance avec les dispositions du Règlement général sur la protection des données (RGPD) européen, oblige les organisations à informer les personnes concernées et à leur fournir, sur demande, les renseignements personnels utilisés dans la prise de décision, les raisons et les principaux facteurs ayant mené à la décision, ainsi que la possibilité de faire rectifier les renseignements personnels utilisés. ## La Loi sur l'accès aux documents des organismes publics Cette loi, également modernisée par la Loi 25, encadre le traitement des renseignements personnels par les organismes publics québécois. Elle impose des obligations analogues à celles du secteur privé, adaptées au contexte gouvernemental. Pour les organismes publics qui déploient des systèmes d'IA, que ce soit dans la prestation de services aux citoyens, la gestion des ressources ou l'aide à la décision, cette loi constitue le cadre de référence incontournable. Les organismes publics doivent notamment désigner un responsable de la protection des renseignements personnels, tenir un inventaire de leurs fichiers de renseignements personnels et réaliser des EFVP pour tout projet technologique impliquant des données personnelles. Ces obligations prennent une importance accrue dans le contexte de la transformation numérique de l'État québécois, où l'IA est de plus en plus intégrée aux processus administratifs. ## Le Code civil du Québec et la responsabilité Le Code civil du Québec offre un cadre de responsabilité civile qui s'applique aux dommages causés par les systèmes d'IA. Le régime de responsabilité extracontractuelle (articles 1457 et suivants) prévoit que toute personne a le devoir de respecter les règles de conduite qui s'imposent à elle et de réparer le préjudice causé par sa faute. Dans le contexte de l'IA, la question de la faute se pose de manière particulière : qui est responsable lorsqu'un système autonome cause un préjudice ? Le concepteur ? L'exploitant ? L'utilisateur ? Le régime de responsabilité du fait des biens (article 1465) et celui du fabricant (articles 1468-1473) peuvent également être invoqués. Un système d'IA défectueux qui cause un préjudice pourrait engager la responsabilité de son fabricant au même titre qu'un produit physique défectueux. Toutefois, l'application de ces régimes à des systèmes logiciels complexes et évolutifs soulève des difficultés d'interprétation que les tribunaux n'ont pas encore pleinement résolues. ## La Charte des droits et libertés de la personne du Québec La Charte québécoise garantit des droits fondamentaux dont la portée s'étend aux systèmes d'IA. Le droit à l'égalité et la protection contre la discrimination (articles 10 à 19) sont directement pertinents pour les algorithmes susceptibles de produire des résultats discriminatoires. Le droit au respect de la vie privée (article 5), le droit à la sauvegarde de la dignité (article 4) et le droit à la liberté d'expression (article 3) constituent autant de balises que les systèmes d'IA doivent respecter. La Commission des droits de la personne et des droits de la jeunesse (CDPDJ) pourrait être appelée à jouer un rôle accru dans la surveillance des pratiques algorithmiques discriminatoires. Son mandat de promotion et de protection des droits fondamentaux la positionne naturellement comme un acteur clé de la gouvernance de l'IA au Québec. ## Le cadre fédéral et ses interactions Au niveau fédéral, le projet de loi C-27 (Loi de 2022 sur la mise en œuvre de la Charte du numérique) proposait la Loi sur l'intelligence artificielle et les données (LIAD), qui aurait établi un cadre réglementaire spécifique pour les systèmes d'IA à l'échelle canadienne. Bien que ce projet ait connu un parcours législatif complexe, il témoigne de la volonté du gouvernement fédéral d'encadrer l'IA et de la nécessité pour le Québec de coordonner son approche avec celle d'Ottawa. La Loi canadienne sur les droits de la personne et la Loi sur l'équité en matière d'emploi constituent d'autres instruments fédéraux pertinents, notamment pour les systèmes d'IA utilisés dans les domaines relevant de la compétence fédérale. ## Les lacunes et les pistes d'amélioration Le cadre juridique actuel, bien que substantiel, présente des lacunes en matière de gouvernance de l'IA. L'absence de législation spécifique crée des zones d'incertitude pour les organisations. Les mécanismes de surveillance et d'application manquent parfois de ressources et d'expertise technique. La rapidité de l'évolution technologique rend difficile l'adaptation du cadre normatif. Plusieurs pistes d'amélioration méritent d'être explorées : l'adoption d'un cadre législatif spécifique à l'IA au Québec, le renforcement des pouvoirs et des ressources de la Commission d'accès à l'information, la création de mécanismes d'audit algorithmique obligatoire pour les systèmes à haut risque, et le développement de normes sectorielles adaptées aux réalités de chaque domaine. ## Conclusion Le cadre juridique québécois applicable à l'IA est en pleine évolution. S'il offre déjà des protections significatives, notamment grâce à la Loi 25 et à la Charte des droits et libertés, il devra continuer à s'adapter pour répondre aux défis posés par des technologies toujours plus puissantes et omniprésentes. Pour les professionnels et les décideurs, la compréhension de ce cadre n'est pas un luxe : c'est une nécessité opérationnelle et stratégique. La conformité juridique constitue le socle minimal sur lequel peut se construire une gouvernance véritablement responsable de l'intelligence artificielle. --- ### L'IA agentique : gouverner les systèmes autonomes au Québec - URL : https://gouvernance.ai/actualites/ia-agentique-gouverner-systemes-autonomes - Date : 2025-12-02 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : IA agentique, agents autonomes, gouvernance, identité numérique, sécurité, responsabilité - Résumé : L'IA agentique, ces systèmes capables de planifier, décider et agir de manière autonome, bouleverse les cadres de gouvernance existants. Analyse des risques, de l'identité numérique des agents et des adaptations nécessaires au Québec. ## L'ère des agents intelligents L'année 2025-2026 marque un tournant dans l'évolution de l'intelligence artificielle : le passage des systèmes qui répondent aux requêtes à des systèmes qui agissent de manière autonome. L'IA agentique, ces systèmes capables de planifier, de décider et d'exécuter des actions sans intervention humaine directe, représente un saut qualitatif qui bouleverse les cadres de gouvernance existants. Selon Microsoft, 80 % des entreprises du Fortune 500 utilisent déjà des agents IA actifs, et 40 % des applications d'entreprise intégreront des agents IA d'ici la fin de 2026. ## Qu'est-ce que l'IA agentique ? Contrairement à l'IA conversationnelle traditionnelle, qui attend une instruction pour produire une réponse, les agents IA sont des systèmes capables de percevoir leur environnement, de formuler des objectifs, de planifier des séquences d'actions et de les exécuter de manière autonome. Un agent IA peut, par exemple, analyser un ensemble de courriels, rédiger des réponses, planifier des réunions, effectuer des recherches et prendre des décisions, le tout sans supervision humaine continue. Cette autonomie accrue est rendue possible par les progrès des grands modèles de langage, par les architectures d'orchestration multi-agents et par l'intégration croissante de l'IA dans les systèmes d'information des organisations. Des entreprises comme L'Oréal ont créé de véritables « usines à agents », avec l'objectif de passer de 8 agents déployés en 2025 à plus de 20 agents majeurs en 2026. ## Les risques spécifiques de l'IA agentique L'autonomie des agents IA engendre des risques que les cadres de gouvernance actuels ne couvrent pas adéquatement. L'exposition de données sensibles est le risque le plus cité (55 % des organisations), suivi des actions non autorisées (52 %), du détournement de credentials (45 %) et de l'absence de normes d'identité pour les agents (45 %). Contrairement aux systèmes d'IA classiques, les agents agissent en continu, prennent des décisions en temps réel et interagissent avec de multiples plateformes simultanément, rendant la supervision humaine plus difficile. Le problème de l'identité numérique des agents est un défi émergent. Les identités non humaines et agentiques devraient dépasser 45 milliards d'ici la fin de 2026, soit plus de douze fois la population active mondiale. Pourtant, seulement 23 % des organisations disposent d'une stratégie formelle de gestion de l'identité des agents. Les mécanismes traditionnels de gestion des accès, identifiants statiques, jetons surprivilégiés, politiques cloisonnées, sont inadaptés à des entités qui opèrent en permanence et de manière décentralisée. Les actions irréversibles constituent un risque critique. Un agent IA qui exécute une transaction financière, envoie une communication ou modifie une base de données de manière autonome peut causer des dommages avant qu'un humain n'ait la possibilité d'intervenir. La mise en place de points de contrôle humain pour les actions à haut risque est essentielle. ## Le cadre de gouvernance à adapter Le cadre juridique québécois actuel n'a pas été conçu pour des systèmes autonomes. La Loi 25, qui impose la transparence pour les décisions fondées « exclusivement sur un traitement automatisé », prend une dimension nouvelle lorsque les agents IA prennent des séries de décisions enchaînées sans intervention humaine. La question de la responsabilité, qui est responsable lorsqu'un agent IA cause un préjudice ?, devient d'autant plus aiguë. Singapour a pris les devants en lançant en janvier 2026 le Model AI Governance Framework for Agentic AI, qui établit quatre dimensions de gouvernance : l'évaluation des risques, la responsabilité humaine, la transparence et la sécurité. Le Colorado, aux États-Unis, exigera des évaluations d'impact annuelles pour les systèmes d'IA à haut risque à partir de juin 2026. La Californie, avec sa loi AB 316, empêche désormais les défendeurs d'invoquer l'autonomie d'un système d'IA comme défense face à une réclamation en responsabilité. Le Québec doit s'inspirer de ces initiatives pour adapter son cadre. Cela implique de clarifier la chaîne de responsabilité pour les actions des agents autonomes, d'imposer des mécanismes de surveillance humaine pour les décisions à haut risque, d'établir des normes d'identité et d'authentification pour les agents IA, de définir des exigences de journalisation et de traçabilité des actions des agents, et de prévoir des mécanismes de révocation rapide en cas de comportement anormal. ## Les implications pour les organisations québécoises Les organisations québécoises qui déploient des agents IA doivent repenser leur gouvernance interne. La gestion des accès doit évoluer vers un modèle de « moindre privilège dynamique », où les permissions des agents sont limitées au strict nécessaire et réévaluées en continu. Des bacs à sable (sandboxes) doivent permettre de tester les agents dans des environnements contrôlés avant leur déploiement en production. Les équipes de cybersécurité doivent intégrer les agents IA dans leur périmètre de surveillance. La formation des équipes est un enjeu critique. Les gestionnaires, les développeurs et les utilisateurs doivent comprendre les capacités et les limites des agents IA, reconnaître les situations qui exigent une intervention humaine et maîtriser les mécanismes de contrôle à leur disposition. ## Conclusion L'IA agentique n'est pas une perspective lointaine : elle est déjà déployée dans les entreprises québécoises et son adoption s'accélère. La gouvernance de ces systèmes autonomes exige une refonte des approches traditionnelles, fondée sur la responsabilité humaine, la traçabilité et la sécurité. Le Québec doit agir rapidement pour adapter son cadre à cette nouvelle réalité, sous peine de voir se multiplier les incidents dont personne ne voudra assumer la responsabilité. --- ### Introduction à la gouvernance de l'intelligence artificielle au Québec - URL : https://gouvernance.ai/actualites/introduction-gouvernance-ia-quebec - Date : 2025-12-01 - Catégorie : analyse - Auteur : florian-brobst - Mots-clés : gouvernance, intelligence artificielle, Québec, introduction, écosystème IA, responsabilité - Résumé : Le Québec s'est imposé comme un pôle mondial de l'IA. Cette position d'excellence s'accompagne d'un impératif : gouverner l'IA de manière responsable, équitable et transparente. Tour d'horizon des enjeux fondamentaux. ## Un enjeu stratégique pour la société québécoise Le Québec s'est imposé au fil de la dernière décennie comme un pôle mondial de l'intelligence artificielle. Porté par un écosystème de recherche exceptionnel, des investissements publics et privés majeurs et une concentration unique de talents, le territoire québécois est devenu un terrain fertile pour le développement et le déploiement de technologies d'IA. Mais cette avancée technologique s'accompagne d'un impératif incontournable : celui de gouverner l'IA de manière responsable, équitable et transparente. La gouvernance de l'intelligence artificielle ne se limite pas à un exercice réglementaire. Elle englobe l'ensemble des mécanismes, juridiques, éthiques, organisationnels et techniques, par lesquels une société encadre le développement, le déploiement et l'utilisation des systèmes d'IA. Pour le Québec, cet enjeu revêt une importance particulière compte tenu de son positionnement international, de ses valeurs sociales distinctes et de son cadre juridique propre au sein de la fédération canadienne. ## Le contexte québécois : forces et particularités Le Québec bénéficie d'atouts considérables en matière d'intelligence artificielle. Montréal abrite Mila, l'un des plus importants instituts de recherche en apprentissage profond au monde, dirigé par des chercheurs de renommée internationale. L'Institut de valorisation des données (IVADO), l'Observatoire international sur les impacts sociétaux de l'IA et du numérique (OBVIA) et Scale AI complètent cet écosystème de recherche et d'innovation. Ces institutions ne se contentent pas de faire avancer la science ; elles contribuent activement à la réflexion sur les enjeux éthiques et sociétaux de l'IA. Sur le plan juridique, le Québec dispose d'un cadre législatif en matière de protection des renseignements personnels qui lui est propre. La Loi sur la protection des renseignements personnels dans le secteur privé et la Loi sur l'accès aux documents des organismes publics et sur la protection des renseignements personnels constituent les fondements de ce cadre. La modernisation de ces lois par l'adoption de la Loi 25 en 2021 a renforcé considérablement les obligations des organisations en matière de protection de la vie privée, avec des implications directes pour les systèmes d'IA qui traitent des données personnelles. Le Québec se distingue également par ses valeurs sociales. La société québécoise accorde une importance particulière à la solidarité sociale, à l'équité, à la protection de la langue française et à la diversité culturelle. Ces valeurs doivent nécessairement se refléter dans l'approche adoptée pour gouverner l'intelligence artificielle. Un système d'IA déployé au Québec ne peut ignorer les réalités linguistiques, culturelles et sociales du territoire. ## Pourquoi gouverner l'IA ? L'intelligence artificielle transforme profondément la manière dont les décisions sont prises dans tous les secteurs de la société. En santé, des algorithmes contribuent au diagnostic médical et à la gestion des ressources hospitalières. En éducation, des systèmes adaptatifs personnalisent l'apprentissage. Dans le secteur financier, des modèles prédictifs évaluent le risque de crédit. Dans la fonction publique, des outils d'aide à la décision orientent l'allocation des ressources et la prestation des services. Chacune de ces applications soulève des questions fondamentales. Comment s'assurer que les décisions automatisées ne reproduisent pas ou n'amplifient pas des biais discriminatoires ? Comment garantir la transparence des processus décisionnels algorithmiques ? Comment protéger la vie privée des citoyens lorsque des quantités massives de données sont nécessaires pour entraîner les modèles ? Comment préserver l'autonomie humaine face à des systèmes de plus en plus sophistiqués ? Ces questions ne sont pas abstraites. Elles ont des conséquences concrètes sur la vie des Québécoises et des Québécois. Un algorithme biaisé dans le système de santé peut aggraver les inégalités d'accès aux soins. Un outil de recrutement automatisé mal conçu peut perpétuer la discrimination systémique. Un système de surveillance déployé sans encadrement adéquat peut porter atteinte aux libertés fondamentales. ## Les dimensions de la gouvernance de l'IA La gouvernance de l'IA au Québec s'articule autour de plusieurs dimensions complémentaires. La dimension juridique et réglementaire concerne l'adoption et l'application de lois, règlements et normes qui encadrent le développement et l'utilisation de l'IA. Au Québec, cela inclut non seulement le cadre provincial, notamment la Loi 25 et les pouvoirs de la Commission d'accès à l'information, mais aussi l'interaction avec le cadre fédéral canadien et les normes internationales émergentes, comme le Règlement européen sur l'IA. La dimension éthique porte sur les principes et les valeurs qui doivent guider la conception et le déploiement des systèmes d'IA. Le Québec a été pionnier dans ce domaine, notamment avec la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle, publiée en 2018, qui propose un ensemble de principes éthiques issus d'une démarche de cocréation citoyenne. La dimension organisationnelle touche aux structures et aux processus que les entreprises, les organismes publics et les institutions mettent en place pour encadrer leur utilisation de l'IA. Cela inclut la désignation de responsables, la mise en œuvre d'évaluations d'impact algorithmique, la formation du personnel et l'établissement de mécanismes de reddition de comptes. La dimension technique concerne les outils et les méthodes permettant de concrétiser les principes de gouvernance dans les systèmes eux-mêmes : auditabilité des algorithmes, explicabilité des décisions, robustesse et sécurité des modèles, protection intégrée de la vie privée. ## Les défis à relever Malgré ses atouts, le Québec fait face à des défis importants en matière de gouvernance de l'IA. Le rythme d'évolution de la technologie dépasse souvent celui de la réglementation. Les organisations, tant publiques que privées, manquent parfois des compétences nécessaires pour évaluer et encadrer les systèmes d'IA qu'elles déploient. La concentration du pouvoir technologique entre les mains d'un petit nombre de grandes entreprises internationales soulève des questions de souveraineté numérique. L'arbitrage entre innovation et protection des droits fondamentaux exige une réflexion constante et nuancée. Par ailleurs, le Québec doit composer avec sa réalité linguistique. Les systèmes d'IA, souvent développés en anglais, peuvent présenter des performances inégales en français, ce qui soulève des enjeux d'équité linguistique et de protection du français comme langue commune. ## Une série pour approfondir Cette série de vingt articles se propose d'explorer en profondeur les multiples facettes de la gouvernance de l'intelligence artificielle au Québec. Nous examinerons le cadre juridique applicable, les enjeux éthiques spécifiques, les défis sectoriels, en santé, en éducation, dans le marché du travail et dans la fonction publique, ainsi que les pistes de solution qui se dessinent. Nous nous pencherons sur le rôle des institutions québécoises, sur les comparaisons internationales et sur les perspectives d'avenir. Chaque article s'adresse aux professionnels et aux décideurs qui souhaitent comprendre les enjeux de la gouvernance de l'IA dans le contexte québécois et qui cherchent des repères pour orienter leurs propres pratiques. L'objectif n'est pas de fournir des réponses définitives, mais d'offrir un éclairage rigoureux et nuancé sur un sujet qui façonnera l'avenir de la société québécoise. La gouvernance de l'IA n'est pas un frein à l'innovation. C'est la condition de sa légitimité sociale et de sa pérennité. Le Québec a les moyens et la volonté de devenir un modèle en la matière. Il lui reste à transformer cette ambition en réalité. --- --- # Référentiel des risques d'IA Source : MIT AI Risk Repository (Slattery et al., 2024), adapté au contexte québécois. ## 1. [object Object] [object Object] ### 1.1 [object Object] [object Object] ### 1.2 [object Object] [object Object] ### 1.3 [object Object] [object Object] ## 2. [object Object] [object Object] ### 2.1 [object Object] [object Object] ### 2.2 [object Object] [object Object] ## 3. [object Object] [object Object] ### 3.1 [object Object] [object Object] ### 3.2 [object Object] [object Object] ## 4. [object Object] [object Object] ### 4.1 [object Object] [object Object] ### 4.2 [object Object] [object Object] ### 4.3 [object Object] [object Object] ## 5. [object Object] [object Object] ### 5.1 [object Object] [object Object] ### 5.2 [object Object] [object Object] ## 6. [object Object] [object Object] ### 6.1 [object Object] [object Object] ### 6.2 [object Object] [object Object] ### 6.3 [object Object] [object Object] ### 6.4 [object Object] [object Object] ### 6.5 [object Object] [object Object] ### 6.6 [object Object] [object Object] ## 7. [object Object] [object Object] ### 7.1 [object Object] [object Object] ### 7.2 [object Object] [object Object] ### 7.3 [object Object] [object Object] ### 7.4 [object Object] [object Object] ### 7.5 [object Object] [object Object] ### 7.6 [object Object] [object Object] --- ## Informations de citation Pour citer ce contenu : « Cercle de Gouvernance de l'IA (gouvernance.ai) » Contact : info@gouvernance.ai Licence : Tous droits réservés. Citation avec attribution autorisée.