Un régulateur québécois qui n'attend pas Ottawa
Le 7 avril 2026, l'Autorité des marchés financiers (AMF) a publié la version finale de sa Ligne directrice sur l'utilisation de l'intelligence artificielle, au terme d'une consultation publique tenue durant l'été et l'automne 2025. Le texte confirme une tendance que plusieurs observateurs avaient anticipée : plutôt que d'attendre une éventuelle reprise du projet de loi fédéral sur l'IA (l'ancienne LIAD, intégrée au projet C-27 désormais mort au feuilleton), le régulateur québécois du secteur financier fixe lui-même les attentes qui s'appliqueront à la prochaine génération de systèmes algorithmiques dans les banques, les assureurs et les caisses.
La ligne directrice entrera en vigueur le 1ᵉʳ mai 2027. L'intervalle d'un an est volontaire : il laisse aux institutions le temps d'ajuster leurs politiques internes, de structurer leurs inventaires d'usages et de former leurs instances de gouvernance. Pour un dirigeant de conformité au Québec, cette échéance est désormais la plus proche, et la plus contraignante, du paysage réglementaire nord-américain en matière d'IA financière.
Qui est visé, et par quoi
La ligne directrice couvre les assureurs autorisés, les coopératives de services financiers, les sociétés de fiducie autorisées et les institutions de dépôt autorisées. Autrement dit, presque toute l'ossature du secteur financier québécois, du grand assureur national au Mouvement Desjardins, en passant par les succursales québécoises de banques à charte.
Trois grandes familles d'exigences structurent le texte.
Premièrement, une exigence d'imputabilité. L'AMF attend qu'un membre de la haute direction soit désigné comme responsable, au sens formel du terme, de l'ensemble des systèmes d'IA de l'institution. Ce n'est pas un simple titre décoratif : cette personne doit pouvoir attester que les politiques existent, que les processus sont suivis et que les écarts sont remontés jusqu'au conseil d'administration. Le conseil, de son côté, doit s'assurer que sa compétence collective est suffisante pour comprendre les risques, en particulier lorsque l'IA intervient dans des activités jugées critiques.
Deuxièmement, une exigence d'inventaire et de classement des risques. Chaque institution doit tenir un registre centralisé de ses systèmes d'IA, attribuer à chacun une cote de risque, et ajuster en conséquence l'intensité des activités d'approbation, de surveillance et de validation. La logique est proche de celle du règlement européen sur l'IA, mais calibrée au cycle de vie des produits financiers et au rapport avec la clientèle.
Troisièmement, une exigence d'explicabilité envers la clientèle. Lorsqu'un système d'IA interagit avec un client ou prend part à une décision qui l'affecte (tarification, souscription, détection de fraude, autorisation de crédit), l'institution doit pouvoir expliquer, de façon claire et simple, les facteurs qui ont conduit au résultat. Cette obligation s'articule avec celles déjà prévues par la Loi 25, qui exige un droit à l'information et un recours humain en cas de décision automatisée.
Prévention des biais et traitement équitable
La ligne directrice insiste particulièrement sur la prévention des biais, la non-discrimination et le traitement équitable des clients. Les institutions devront documenter la provenance des données d'entraînement, évaluer les risques de discrimination (directe ou indirecte), encadrer le risque d'hallucination des modèles génératifs et tenir compte des atteintes potentielles à la propriété intellectuelle.
Le texte s'appuie sur deux référentiels que les équipes de conformité connaissent déjà : la Recommandation de l'OCDE sur l'intelligence artificielle et le Règlement européen sur l'IA. Ce choix n'est pas anodin. Il permet à une filiale québécoise d'un grand groupe européen de réutiliser une partie de la documentation produite pour Bruxelles, et il signale aux acteurs mondiaux que l'AMF n'entend pas réinventer la roue, mais aligner son cadre sur les standards internationaux.
Une fenêtre qui se referme rapidement
Avec une entrée en vigueur au 1ᵉʳ mai 2027, le chantier est serré. Les institutions doivent rapidement clarifier quatre éléments :
- La cartographie des systèmes d'IA déjà en production, souvent bien plus étendue que ce que l'on croit lorsque l'on y inclut les modèles de scoring, les outils de détection de fraude et les assistants internes fondés sur l'IA générative.
- La gouvernance interne : qui siège au comité IA, qui arbitre les conflits entre équipes métiers et équipes risque, et comment le conseil d'administration reçoit l'information.
- Les processus d'acquisition de solutions d'IA auprès de fournisseurs tiers, y compris les hyperscalers américains, sachant que la question de la résidence des données devient un sujet de supervision.
- La formation des administrateurs et des cadres, afin que la « compétence collective » exigée par l'AMF soit démontrable.
Pour les praticiens, l'exercice n'est pas seulement défensif. Un inventaire rigoureux, assorti d'une cote de risque, est aussi un outil stratégique pour allouer les investissements et écarter les projets dont la valeur métier ne justifie pas la complexité de gouvernance.
Une avance québécoise, mais un espace à tenir
En publiant cette ligne directrice, l'AMF se positionne comme l'un des régulateurs financiers les plus explicites en Amérique du Nord sur la question de l'IA, aux côtés du Bureau du surintendant des institutions financières (BSIF) dont la ligne directrice B-13 sur les risques technologiques joue un rôle comparable à l'échelon fédéral. Les deux textes sont globalement cohérents, mais ne se superposent pas parfaitement, ce qui oblige les institutions à charte fédérale opérant au Québec à maintenir une double lecture.
Pour la gouvernance publique québécoise, le signal est double. D'un côté, le secteur financier, historiquement bien doté en capacités de conformité, absorbera sans doute cette ligne directrice plus facilement que d'autres secteurs (éducation, santé, municipalités) où les mêmes questions se posent sans encadrement équivalent. De l'autre, cette avance du régulateur financier pourrait servir de laboratoire : plusieurs des concepts poussés par l'AMF (inventaire d'usages, cote de risque, imputabilité de haut niveau, explicabilité client) sont des candidats naturels à une généralisation, que ce soit par voie de directive gouvernementale ou de future loi provinciale sur l'IA.
La ligne directrice est donc plus qu'un texte sectoriel. Elle donne un avant-goût concret de ce à quoi pourrait ressembler une gouvernance de l'IA « à la québécoise » : prudente, fondée sur le risque, arrimée aux standards internationaux et articulée à la protection des renseignements personnels déjà prévue par la Loi 25.
Sources
- La Presse, 16 avril 2026 : Intelligence artificielle : l'AMF détaille une bonne utilisation par les banques et les assureurs
- Blake, Cassels & Graydon LLP : L'AMF publie sa ligne directrice sur l'utilisation de l'intelligence artificielle : ce que les institutions financières doivent retenir
- Le Devoir : L'AMF et la gouvernance de l'IA, ou quand les institutions devancent la loi
- Autorité des marchés financiers : Ligne directrice sur l'utilisation de l'intelligence artificielle
- Norton Rose Fulbright : Encadrement de l'usage de l'IA dans les services financiers : alignement entre la ligne directrice de l'AMF et la ligne directrice B-13 du BSIF



