Trois jours, deux trajectoires opposées
Entre le 5 et le 7 mai 2026, deux décisions ont redessiné la carte mondiale de la supervision des modèles d'intelligence artificielle frontières. Les deux pointent dans des directions opposées, et toutes deux laissent le Canada et le Québec sans réponse opérationnelle.
Le 5 mai, le Center for AI Standards and Innovation (CAISI), rattaché au Département américain du Commerce, a annoncé des accords formels avec Google DeepMind, Microsoft et xAI pour évaluer leurs modèles avant déploiement public. Le 7 mai, le Conseil de l'Union européenne et le Parlement européen ont conclu l'accord politique provisoire sur le Digital Omnibus, qui repousse l'application des obligations à haut risque de l'AI Act jusqu'au 2 décembre 2027 et étend aux entreprises de moins de 750 employés des allègements jusque-là réservés aux PME.
Washington s'aligne sur un modèle inspiré de l'évaluation pré-commercialisation des médicaments par la FDA, alors que Bruxelles relâche son propre calendrier sous la pression de l'industrie. Le contraste est inédit, et il appelle une lecture immédiate au Québec et à Ottawa.
Le pivot américain : CAISI s'invite avant la mise en marché
L'annonce du 5 mai constitue un revirement marquant pour une administration arrivée au pouvoir en s'opposant explicitement à toute supervision contraignante de l'intelligence artificielle. Selon Axios et le Washington Post, le déclencheur est l'affaire Mythos : Anthropic a elle-même restreint la diffusion de son modèle frontière en avril 2026, jugeant ses capacités cyber offensives trop dangereuses pour un déploiement large. Cette auto-restriction a pesé lourdement dans les arbitrages internes de la Maison-Blanche.
Selon CNBC et le Hill, les nouveaux accords de CAISI étendent à Google DeepMind, Microsoft et xAI le mécanisme de pré-évaluation déjà en vigueur depuis 2024 avec OpenAI et Anthropic. Ces accords ont été renégociés pour refléter les nouvelles directives du secrétaire au Commerce Howard Lutnick et les engagements de l'America's AI Action Plan. CAISI évaluera notamment les risques cyber, biologiques et chimiques que pourraient amplifier ces modèles.
Federal News Network indique par ailleurs qu'un projet de décret est à l'étude au sein du Conseil économique national et du Conseil de sécurité nationale. Kevin Hassett, directeur du NEC, a comparé publiquement l'approche envisagée à celle de la FDA pour les médicaments. Selon Fortune, plusieurs sources internes anticipent une décision exécutive dans les prochaines semaines.
La trajectoire opposée de Bruxelles
L'accord du 7 mai sur le Digital Omnibus officialise un assouplissement substantiel du calendrier européen. Les systèmes d'IA à haut risque autonomes listés à l'Annexe III de l'AI Act devront se conformer au plus tard le 2 décembre 2027. Pour les systèmes intégrés dans des produits régulés par la législation sectorielle européenne (dispositifs médicaux, machines, jouets), la date de bascule est repoussée au 2 août 2028.
L'accord élargit également les allègements documentaires et les sanctions modulées aux entreprises de moins de 750 employés, alors que ces dispositions étaient initialement réservées aux PME. En contrepartie, il interdit explicitement les systèmes d'IA générant de l'imagerie intime non consentie ou du matériel d'exploitation sexuelle d'enfants, avec une mise en conformité exigée d'ici le 2 décembre 2026.
Les co-législateurs visent une adoption formelle avant le 2 août 2026, date à laquelle les obligations originales devaient entrer en vigueur. Le pari assumé : éviter qu'un calendrier irréaliste ne décrédibilise la première grande loi mondiale sur l'IA.
L'angle mort canadien : un institut sans accès aux modèles
Le Canada possède théoriquement un équivalent du CAISI américain : l'Institut canadien sur la sécurité de l'intelligence artificielle, ou ICSIA, lancé en novembre 2024 avec une enveloppe de 50 millions de dollars sur cinq ans. Hébergé partiellement au CIFAR et adossé à Mila à Montréal, l'ICSIA mène treize projets de recherche couvrant la détection des hypertrucages, les benchmarks de sécurité et les risques liés aux agents autonomes.
Mais l'écart avec son homologue américain est structurel. CAISI signe désormais des accords contraignants de pré-évaluation avec les principaux laboratoires frontières. L'ICSIA, lui, n'a aucun accord équivalent. Aucun fournisseur de modèles frontière n'est tenu, par la loi canadienne ou par engagement bilatéral, de soumettre ses systèmes à une évaluation canadienne avant déploiement.
L'affaire Mythos avait déjà mis cette asymétrie en lumière en avril : ni l'ICSIA, ni la Commission canadienne d'accès à l'information, ni le Centre de la sécurité des télécommunications n'ont eu accès au modèle restreint d'Anthropic. Le 5 mai, c'est l'écart inverse qui se confirme : Washington obtient un droit de regard que ni Ottawa ni Québec ne possèdent.
Le ministre fédéral de l'IA et de l'Innovation numérique, Evan Solomon, a indiqué qu'une stratégie nationale révisée serait dévoilée prochainement, après le sprint national de consultation de l'automne 2025 qui a recueilli plus de 11 000 contributions. Aucune date officielle n'est confirmée, et aucun élément public ne laisse entendre qu'un mécanisme de pré-déploiement comparable au modèle CAISI américain soit envisagé.
Implications pour le Québec : ce que la directive ne couvre pas
L'indication d'application du ministère de la Cybersécurité et du Numérique, qui devient opérationnellement contraignante le 5 juin 2026, encadre l'usage de l'IA générative au sein des organismes publics québécois. Elle ne porte pas sur la mise en marché, l'évaluation préalable ni la certification des modèles eux-mêmes.
Trois enseignements émergent du double mouvement Washington-Bruxelles.
D'abord, la supervision pré-déploiement devient un instrument de souveraineté qui complète, sans s'y substituer, les obligations imposées aux utilisateurs publics. Le Québec exige des organismes publics qu'ils encadrent leurs propres usages, mais reste tributaire des évaluations menées en amont par les autorités américaines, britanniques ou européennes.
Ensuite, le pivot américain démontre qu'un cadre de pré-évaluation peut s'imposer rapidement par voie réglementaire fédérale, sans loi nouvelle, à condition d'obtenir l'engagement des grands laboratoires. Le Canada possède l'infrastructure institutionnelle pour le faire avec l'ICSIA, mais lui manque l'autorité contraignante et les accords correspondants.
Enfin, le ralentissement européen rebat les cartes pour les organisations québécoises qui calquaient partiellement leur trajectoire de conformité sur l'AI Act. La pyramide de risques européenne reste inchangée, mais le calendrier opérationnel se desserre, alors que la directive québécoise garde son échéance ferme du 5 juin 2026. Les organismes publics québécois resteront, pour les douze à vingt-quatre prochains mois, parmi les plus exigeants en Amérique du Nord vis-à-vis de l'IA générative en service public.
Sources
- Trump admin moves further into AI oversight, will test Google, Microsoft and xAI models (CNBC)
- NIST's CAISI Announces New Frontier AI Testing Agreements with Google DeepMind, Microsoft, xAI (HPCwire)
- New frontier of AI forces Trump's heavy hand (Axios)
- Trump administration suddenly embraces AI oversight ideas it once rejected (Fortune)
- WH studying AI security executive order (Federal News Network)
- Microsoft, Google, xAI giving government early access to AI models for review (The Hill)
- Artificial Intelligence: Council and Parliament agree to simplify and streamline rules (Conseil de l'Union européenne)
- Institut canadien sur la sécurité de l'IA (Innovation, Sciences et Développement économique Canada)
- Programme de recherche de l'Institut canadien de la sécurité de l'IA au CIFAR



