Un moment décisif
Le Québec se trouve à un moment charnière dans sa relation avec l'intelligence artificielle. Les développements des derniers mois, la maturation de l'AI Act européen, la mort du projet de loi fédéral C-27, la nomination d'un ministre canadien de l'IA, le virage déréglementaire américain, l'émergence de l'IA agentique, les batailles juridiques sur le droit d'auteur, les menaces des deepfakes, dessinent un paysage en transformation rapide qui exige du Québec une réponse structurée et ambitieuse. Cette synthèse rassemble les fils conducteurs des analyses précédentes pour tracer les contours d'un cadre québécois de gouvernance de l'IA adapté aux réalités de 2026.
Les fondations existantes
Le Québec ne part pas de zéro. Il dispose de fondations solides sur lesquelles construire.
La Loi 25 modernise le cadre de protection des renseignements personnels et introduit des obligations directement pertinentes pour l'IA : transparence des décisions automatisées, évaluations des facteurs relatifs à la vie privée, notification des incidents. La Charte des droits et libertés de la personne offre un socle constitutionnel pour protéger les citoyens contre les atteintes aux droits fondamentaux causées par l'IA, discrimination, atteinte à la vie privée, violation de la dignité.
La Déclaration de Montréal pour un développement responsable de l'intelligence artificielle a établi un cadre éthique de référence reconnu internationalement. L'écosystème de recherche, Mila, IVADO, OBVIA, CEIMIA, offre une expertise scientifique et éthique de premier plan. La Commission d'accès à l'information dispose de l'expertise réglementaire nécessaire pour jouer un rôle central dans la gouvernance de l'IA.
Les principes directeurs d'un cadre québécois
Un cadre québécois de gouvernance de l'IA devrait s'articuler autour de sept principes directeurs.
Le premier est la proportionnalité aux risques. Les obligations de gouvernance doivent être calibrées en fonction du niveau de risque des systèmes d'IA, mesuré par leur contexte d'utilisation, leur impact potentiel sur les droits et la sécurité des personnes, et le degré d'autonomie du système. Les applications à faible risque ne devraient pas être soumises aux mêmes exigences que les systèmes à haut risque.
Le deuxième est la transparence. Les citoyens ont le droit de savoir quand ils interagissent avec un système d'IA, comment ce système fonctionne dans ses grandes lignes, et comment il influence les décisions qui les concernent. La transparence n'est pas seulement une obligation technique, c'est un impératif démocratique.
Le troisième est la responsabilité humaine. Quel que soit le degré d'autonomie d'un système d'IA, un être humain doit être identifiable comme responsable de son déploiement et de ses conséquences. La chaîne de responsabilité doit être claire et les mécanismes de recours accessibles.
Le quatrième est l'équité. Les systèmes d'IA ne doivent pas créer ni perpétuer de discriminations. Des mécanismes d'évaluation et d'audit des biais doivent être intégrés tout au long du cycle de vie des systèmes.
Le cinquième est la protection de la vie privée. L'utilisation des données personnelles par les systèmes d'IA doit respecter les principes de la Loi 25 et aller au-delà lorsque nécessaire, en tenant compte des risques spécifiques de l'IA, réidentification, inférence, profilage.
Le sixième est l'inclusion. Le cadre de gouvernance doit être conçu pour être accessible à toutes les organisations, quelle que soit leur taille, et pour protéger tous les citoyens, y compris les plus vulnérables, communautés autochtones, personnes âgées, personnes en situation de handicap, communautés linguistiques minoritaires.
Le septième est l'adaptabilité. La technologie de l'IA évolue à un rythme qui rend les cadres trop rigides rapidement obsolètes. Le cadre québécois doit prévoir des mécanismes de révision et d'adaptation, réglementation habilitante, bacs à sable réglementaires, consultations régulières.
L'architecture institutionnelle
Le cadre québécois nécessite une architecture institutionnelle claire.
La Commission d'accès à l'information devrait jouer un rôle central, en étendant son mandat pour couvrir explicitement la gouvernance de l'IA. La CAI dispose de l'expertise en protection des données et en transparence qui est au cœur des enjeux de l'IA. Un renforcement significatif de ses ressources humaines et financières serait nécessaire.
Un comité consultatif multidisciplinaire, réunissant des experts en technologie, en droit, en éthique, en sciences sociales, des représentants de l'industrie, de la société civile et des communautés autochtones, devrait conseiller le gouvernement sur l'évolution du cadre. Ce comité pourrait s'inspirer du modèle du Comité consultatif sur l'intelligence artificielle qui a contribué à l'élaboration de l'AI Act européen.
Les organismes sectoriels, l'Autorité des marchés financiers pour les services financiers, le ministère de la Santé pour les systèmes de santé, le ministère de l'Éducation pour les outils éducatifs, devraient développer des lignes directrices sectorielles qui précisent l'application du cadre général à leurs domaines respectifs.
Les mécanismes concrets
Plusieurs mécanismes concrets devraient être intégrés au cadre.
Un registre des systèmes d'IA à haut risque déployés au Québec, inspiré de la base de données européenne, assurerait la transparence et faciliterait la surveillance. Les organisations seraient tenues de déclarer les systèmes d'IA à haut risque qu'elles déploient, avec une description de leur fonctionnement et de leurs garanties.
Des évaluations d'impact algorithmique, analogues aux évaluations des facteurs relatifs à la vie privée de la Loi 25, seraient requises avant le déploiement de systèmes d'IA à haut risque. Ces évaluations analyseraient les risques pour les droits fondamentaux, l'équité, la sécurité et la vie privée.
Des mécanismes de certification volontaire permettraient aux organisations de démontrer leur conformité aux normes de gouvernance de l'IA. Ces certifications, délivrées par des organismes accrédités, faciliteraient la confiance des clients et des partenaires commerciaux.
Des bacs à sable réglementaires offriraient un espace contrôlé pour tester des applications innovantes d'IA sous la supervision du régulateur, permettant de concilier innovation et protection.
La stratégie de mise en œuvre
La mise en œuvre du cadre devrait suivre une approche progressive. Une première phase, axée sur la sensibilisation et l'accompagnement, permettrait aux organisations de se familiariser avec les nouvelles exigences et de commencer leur mise en conformité. Une deuxième phase introduirait les obligations réglementaires de manière graduelle, en commençant par les systèmes à haut risque et les grandes organisations. Une troisième phase étendrait les obligations à l'ensemble des systèmes visés, avec des adaptations pour les PME.
Cette approche progressive, inspirée de la mise en œuvre de la Loi 25, permettrait d'éviter les perturbations excessives tout en progressant de manière soutenue vers une gouvernance complète.
La dimension internationale
Le cadre québécois doit s'inscrire dans le contexte international. L'interopérabilité avec l'AI Act européen faciliterait les échanges commerciaux avec l'Europe. L'articulation avec un éventuel cadre fédéral canadien éviterait la duplication des obligations. Le positionnement du Québec comme modèle francophone de gouvernance de l'IA renforcerait son influence dans la francophonie et sur la scène internationale.
Conclusion
Le Québec a l'occasion historique de construire un modèle de gouvernance de l'IA qui soit à la fois protecteur des droits et des valeurs québécoises, favorable à l'innovation responsable, accessible à toutes les organisations et reconnu internationalement. Les fondations existent, l'expertise est disponible, les leçons des expériences étrangères sont là. Ce qui manque, c'est la volonté politique de passer à l'action et les ressources pour y parvenir. L'IA ne ralentira pas pour attendre que le Québec soit prêt. C'est au Québec de se préparer, maintenant, pour gouverner l'IA plutôt que d'être gouverné par elle.



