Essayez l'outil gratuitement

Essayer
Analyse6 min de lecture

Cybersécurité et IA au Québec : la double face de l'épée

L'IA transforme la cybersécurité des deux côtés : phishing généré par IA, deepfakes vocaux et rançongiciels intelligents d'un côté, détection avancée et réponse automatisée de l'autre. Enjeux pour le Québec.

FB
Florian Brobst
Fondateur & Directeur · 29 décembre 2025

Une transformation du paysage des menaces

L'intelligence artificielle transforme en profondeur le paysage de la cybersécurité, autant du côté des attaquants que des défenseurs. Les cybercriminels exploitent l'IA pour automatiser et sophistiquer leurs attaques, tandis que les équipes de sécurité déploient des systèmes d'IA pour détecter et contrer ces menaces en temps réel. Cette course aux armements technologique a des implications directes pour les organisations québécoises et pour la gouvernance de l'IA dans la province.

L'IA comme vecteur de menaces

L'utilisation de l'IA par les cybercriminels a franchi un seuil qualitatif. Les attaques d'hameçonnage (phishing) générées par l'IA sont désormais d'une qualité linguistique et d'une personnalisation qui les rendent pratiquement indistinguables des communications légitimes. Les courriels frauduleux ne contiennent plus les fautes grossières qui permettaient aux utilisateurs de les identifier, ils sont rédigés dans un français impeccable, adaptés au contexte de la cible et exploitent des informations personnelles extraites des réseaux sociaux et des bases de données compromises.

Les deepfakes vocaux et vidéo sont utilisés pour des fraudes sophistiquées. Des cas documentés montrent des employés transférant des sommes importantes après avoir reçu des instructions vocales qui reproduisaient parfaitement la voix de leur supérieur hiérarchique. La technologie de clonage vocal ne nécessite que quelques secondes d'enregistrement pour produire un double convaincant.

Les rançongiciels (ransomware) alimentés par l'IA sont capables de s'adapter en temps réel aux défenses des systèmes ciblés, d'identifier automatiquement les données les plus sensibles pour maximiser la pression sur les victimes et de se propager de manière optimale dans les réseaux. Les groupes cybercriminels utilisent également l'IA pour découvrir des vulnérabilités dans les systèmes informatiques plus rapidement que les équipes de sécurité ne peuvent les corriger.

Le développement d'outils d'IA malveillants dédiés, parfois appelés « dark LLMs », fournit aux criminels des assistants capables de générer du code malveillant, de planifier des attaques et de contourner les mesures de sécurité. Ces outils, disponibles sur le dark web, démocratisent l'accès à des capacités offensives autrefois réservées aux acteurs les plus sophistiqués.

L'IA comme outil de défense

En parallèle, l'IA renforce considérablement les capacités de cyberdéfense. Les systèmes de détection d'intrusion basés sur l'IA analysent des volumes massifs de données réseau en temps réel pour identifier des comportements anormaux qui échapperaient aux systèmes traditionnels fondés sur des signatures connues. L'apprentissage automatique permet de détecter des menaces inédites, les « zero-day », en reconnaissant des patterns d'activité suspecte.

L'automatisation de la réponse aux incidents réduit le temps entre la détection d'une menace et sa neutralisation, un facteur critique lorsque les attaques se propagent en minutes. Les systèmes d'IA peuvent isoler automatiquement les segments de réseau compromis, bloquer les connexions suspectes et alerter les équipes de sécurité avec des informations contextualisées.

L'analyse prédictive permet d'anticiper les attaques en identifiant les tendances et les indicateurs précurseurs dans les flux de données de renseignement sur les menaces. Les organisations peuvent ainsi renforcer préventivement leurs défenses dans les domaines les plus susceptibles d'être ciblés.

Les vulnérabilités spécifiques au Québec

Le Québec présente des vulnérabilités particulières dans ce contexte. Le réseau de la santé, qui gère des données extrêmement sensibles et dont les systèmes informatiques sont parfois vétustes, constitue une cible de choix. Les attaques par rançongiciel contre des établissements de santé ont des conséquences potentiellement mortelles lorsqu'elles perturbent les soins aux patients.

Le secteur public québécois, en pleine transformation numérique, déploie des systèmes d'IA dans des contextes qui touchent directement les citoyens, services sociaux, fiscalité, justice. La sécurité de ces systèmes est une condition préalable à la confiance publique.

Les PME québécoises, qui constituent la grande majorité du tissu économique, disposent rarement d'équipes de cybersécurité dédiées et sont particulièrement vulnérables. Elles sont souvent perçues par les cybercriminels comme des cibles faciles et comme des portes d'entrée vers les grandes organisations avec lesquelles elles sont connectées dans les chaînes d'approvisionnement.

La dimension linguistique ajoute une complexité. Les outils d'IA malveillants optimisés pour le français québécois permettent des attaques d'ingénierie sociale plus convaincantes auprès de la population francophone.

La gouvernance de la cybersécurité de l'IA

La gouvernance de la cybersécurité de l'IA au Québec doit aborder plusieurs dimensions. La sécurité des systèmes d'IA eux-mêmes est un enjeu critique. Les modèles d'IA sont vulnérables à des attaques spécifiques : l'empoisonnement des données d'entraînement, les attaques adversarielles qui manipulent les entrées pour tromper les modèles, l'extraction de données sensibles mémorisées par les modèles et le détournement de fonctionnalité (jailbreaking).

La réglementation doit évoluer pour intégrer les enjeux spécifiques de la cybersécurité de l'IA. La Loi 25, en imposant des obligations de sécurité pour la protection des renseignements personnels, fournit un socle, mais des exigences supplémentaires sont nécessaires pour les systèmes d'IA, compte tenu de leurs vulnérabilités particulières.

La formation et la sensibilisation des employés doivent être mises à jour pour refléter les nouvelles menaces liées à l'IA. Les formations traditionnelles sur l'hameçonnage doivent intégrer les techniques d'attaque générées par l'IA, y compris les deepfakes vocaux et vidéo.

La collaboration entre les acteurs est indispensable. Le Centre canadien pour la cybersécurité, les équipes de réponse aux incidents du Québec et les organisations du secteur privé doivent partager rapidement les informations sur les menaces émergentes liées à l'IA.

Le cadre réglementaire en évolution

Au niveau international, les exigences de cybersécurité pour les systèmes d'IA se renforcent. L'AI Act européen impose des exigences de robustesse et de cybersécurité pour les systèmes à haut risque. La directive NIS2 de l'UE étend les obligations de cybersécurité à un large éventail de secteurs. Les États-Unis, à travers le NIST AI Risk Management Framework, ont défini des pratiques de sécurité spécifiques aux systèmes d'IA.

Le Québec devrait s'inspirer de ces cadres pour développer des exigences de cybersécurité adaptées aux systèmes d'IA déployés dans la province, en coordination avec les efforts fédéraux en la matière.

Recommandations

Le Québec devrait intégrer des exigences de cybersécurité spécifiques à l'IA dans son cadre réglementaire, soutenir les PME dans le renforcement de leur posture de cybersécurité face aux menaces liées à l'IA, développer des programmes de formation spécialisés à l'intersection de l'IA et de la cybersécurité, encourager la recherche québécoise en sécurité des systèmes d'IA, et établir des mécanismes de signalement et de réponse rapide aux incidents impliquant des systèmes d'IA.

Conclusion

La cybersécurité et l'IA sont désormais inextricablement liées. L'IA amplifie à la fois les menaces et les défenses, créant une dynamique complexe que les organisations québécoises doivent comprendre et gérer. Un cadre de gouvernance qui ignorerait la dimension cybersécurité de l'IA serait fondamentalement incomplet. Le Québec a l'opportunité de développer une approche intégrée qui fasse de la sécurité un pilier de sa stratégie d'IA, plutôt qu'un ajout tardif.


Partager :
FB
Florian Brobst
Fondateur & Directeur

Spécialiste en gouvernance de l’intelligence artificielle, Florian accompagne les organisations dans la mise en place de cadres de gouvernance responsables et conformes aux réglementations émergentes.

Restez inform\u00e9

Abonnez-vous \u00e0 notre infolettre pour ne rien manquer.

Nous contacter

Ce site utilise des cookies essentiels et fonctionnels pour améliorer votre expérience. Politique de confidentialité