Essayez l'outil gratuitement

Essayer
Analyse7 min de lecture

La gouvernance de l'IA dans le secteur public québécois

Le gouvernement du Québec intègre progressivement l'IA dans ses services. Cette transformation promet des gains d'efficacité mais soulève des enjeux spécifiques liés au rôle de l'État et aux droits des citoyens.

FB
Florian Brobst
Fondateur & Directeur · 20 janvier 2026

L'État québécois face à la transformation algorithmique

Le gouvernement du Québec, comme les administrations publiques du monde entier, intègre progressivement l'intelligence artificielle dans ses opérations et ses services aux citoyens. Cette transformation numérique de l'État promet des gains d'efficacité, une meilleure allocation des ressources et des services plus personnalisés. Mais elle soulève aussi des enjeux de gouvernance spécifiques, liés au rôle particulier de l'État dans la société et aux obligations renforcées qui en découlent.

Les applications de l'IA dans l'administration québécoise

L'administration publique québécoise explore et déploie l'IA dans de nombreux domaines. Les services de première ligne, comme les centres d'appels gouvernementaux, utilisent des agents conversationnels pour répondre aux questions fréquentes des citoyens. Les systèmes de gestion des dossiers exploitent l'IA pour automatiser le tri et l'orientation des demandes. L'analyse prédictive aide à anticiper les besoins en services sociaux, en santé publique et en sécurité publique.

Revenu Québec, la Société de l'assurance automobile du Québec (SAAQ), la Régie de l'assurance maladie du Québec (RAMQ) et d'autres organismes gouvernementaux traitent des millions de transactions et de dossiers chaque année. L'IA peut contribuer à améliorer la rapidité et la qualité du traitement de ces dossiers, à détecter les fraudes et les erreurs, et à personnaliser les interactions avec les citoyens.

Le Secrétariat du Conseil du trésor et le ministère de la Cybersécurité et du Numérique jouent un rôle de coordination dans la stratégie numérique du gouvernement. Des cadres de référence pour l'utilisation responsable de l'IA dans l'administration publique ont été développés pour guider les ministères et organismes dans leurs projets.

Les obligations renforcées du secteur public

L'utilisation de l'IA par le secteur public est soumise à des obligations plus strictes que dans le secteur privé, en raison de la relation particulière entre l'État et les citoyens.

Le principe de légalité administrative exige que les décisions de l'administration soient prises conformément au droit et qu'elles soient motivées. L'utilisation de l'IA dans les processus décisionnels administratifs doit respecter ce principe. Un algorithme ne peut pas prendre une décision qui outrepasse les pouvoirs conférés par la loi, et les motifs de la décision doivent pouvoir être articulés et communiqués.

Le droit à l'équité procédurale, reconnu par la Charte des droits et libertés de la personne et par le droit administratif, exige que les personnes affectées par une décision administrative aient la possibilité d'être entendues avant que la décision ne soit prise. L'automatisation des décisions ne peut pas supprimer cette garantie fondamentale.

La Loi sur l'accès aux documents des organismes publics impose la transparence sur les processus décisionnels gouvernementaux. Les systèmes d'IA utilisés par les organismes publics devraient, en principe, être accessibles à l'examen public, sous réserve des exceptions prévues par la loi (sécurité nationale, renseignements personnels de tiers, etc.).

L'obligation de service dans les deux langues officielles (pour les organismes assujettis) et en français comme langue de l'Administration, conformément à la Charte de la langue française, s'applique aux services fournis par des systèmes d'IA. Les citoyens ont le droit de recevoir des services de qualité en français, ce qui impose des exigences de performance linguistique aux systèmes d'IA déployés dans les services publics.

Les risques spécifiques du secteur public

L'utilisation de l'IA dans le secteur public comporte des risques spécifiques qui exigent une gouvernance adaptée.

Le risque d'automatisation des inégalités est particulièrement préoccupant dans les services publics. Les systèmes d'IA utilisés pour allouer des ressources, évaluer l'admissibilité à des programmes sociaux ou cibler des inspections peuvent reproduire ou amplifier des inégalités systémiques. Les personnes les plus vulnérables, bénéficiaires de programmes sociaux, personnes ayant des problèmes de santé, communautés marginalisées, sont souvent les plus affectées par les décisions algorithmiques de l'État.

Le risque d'érosion de la discrétion administrative est un enjeu plus subtil. La discrétion administrative, le pouvoir des agents publics d'exercer leur jugement dans l'application des règles, est un mécanisme important de flexibilité et d'humanité dans l'administration publique. L'automatisation des décisions peut réduire cette discrétion, conduisant à une application rigide et décontextualisée des règles.

Le risque de dépendance technologique est accentué dans le secteur public. La dépendance envers des fournisseurs privés pour des systèmes d'IA critiques soulève des questions de souveraineté, de continuité de service et de contrôle démocratique. Les contrats de développement et d'exploitation de systèmes d'IA dans le secteur public doivent inclure des clauses de propriété intellectuelle, de transfert de compétences et de réversibilité.

Les cadres de référence existants

Le gouvernement du Québec a développé plusieurs outils pour encadrer l'utilisation de l'IA dans l'administration publique. Le cadre de référence pour l'utilisation éthique et responsable de l'IA dans l'administration publique établit des principes directeurs et des pratiques recommandées. La Stratégie de transformation numérique gouvernementale intègre l'IA dans une vision plus large de modernisation de l'État.

Ces cadres sont des avancées significatives, mais leur efficacité dépend de leur mise en œuvre effective. Les ministères et organismes doivent disposer des compétences, des ressources et des mécanismes de contrôle nécessaires pour appliquer ces cadres dans la pratique. Un suivi régulier et une évaluation indépendante de la mise en œuvre sont indispensables.

La participation citoyenne

La gouvernance de l'IA dans le secteur public doit intégrer des mécanismes de participation citoyenne. Les citoyens ont un droit légitime de regard sur les systèmes algorithmiques qui affectent leur accès aux services publics et leurs interactions avec l'État. Des consultations publiques, des panels citoyens et des mécanismes de rétroaction doivent être mis en place pour s'assurer que les valeurs et les préoccupations des citoyens sont prises en compte.

Le Protecteur du citoyen, institution indépendante chargée de veiller au respect des droits des citoyens dans leurs relations avec l'administration publique, pourrait voir son rôle élargi pour englober la surveillance des systèmes d'IA gouvernementaux. Cette institution dispose de la légitimité et de l'indépendance nécessaires pour exercer un contrôle externe sur les pratiques algorithmiques de l'État.

Les marchés publics et l'IA

L'encadrement des marchés publics liés à l'IA est un enjeu de gouvernance important. Les processus d'appel d'offres et d'attribution de contrats pour des systèmes d'IA doivent intégrer des critères de responsabilité, de transparence et d'équité. Les cahiers des charges doivent spécifier des exigences en matière d'auditabilité des algorithmes, de protection des données, de performance équitable pour tous les groupes de la population et de conformité avec le cadre juridique québécois.

Recommandations

Pour renforcer la gouvernance de l'IA dans le secteur public québécois, il serait souhaitable de créer un organisme ou une unité spécialisée chargée de coordonner et de superviser l'utilisation de l'IA dans l'ensemble de l'administration, de rendre obligatoire la publication d'évaluations d'impact algorithmique pour tout système d'IA à haut risque déployé dans le secteur public, d'établir un registre public des systèmes d'IA utilisés par les organismes gouvernementaux, d'investir dans le développement des compétences en IA au sein de la fonction publique, et de mettre en place des mécanismes de recours accessibles pour les citoyens affectés par des décisions algorithmiques.

Conclusion

Le secteur public québécois a la responsabilité de montrer l'exemple en matière de gouvernance de l'IA. Les citoyens ne choisissent pas leurs interactions avec l'État : ils y sont soumis. Cette asymétrie de pouvoir impose une exigence de transparence, d'équité et de responsabilité accrue. L'IA peut améliorer la qualité des services publics, mais seulement si elle est gouvernée avec la rigueur et la prudence que commande sa position au cœur de la relation entre l'État et les citoyens.


Partager :
FB
Florian Brobst
Fondateur & Directeur

Spécialiste en gouvernance de l’intelligence artificielle, Florian accompagne les organisations dans la mise en place de cadres de gouvernance responsables et conformes aux réglementations émergentes.

Restez inform\u00e9

Abonnez-vous \u00e0 notre infolettre pour ne rien manquer.

Nous contacter

Ce site utilise des cookies essentiels et fonctionnels pour améliorer votre expérience. Politique de confidentialité