L'IA transforme déjà le réseau de la santé
L'intelligence artificielle n'est plus un concept théorique dans le milieu de la santé québécois. Des systèmes d'aide au diagnostic en radiologie aux algorithmes de triage dans les urgences, en passant par les outils de prédiction des réadmissions hospitalières, l'IA est déjà présente dans nos établissements de santé.
Pourtant, la gouvernance de ces systèmes reste largement insuffisante. Une enquête récente menée auprès de 45 établissements du réseau a révélé que moins de 20 % disposent d'un cadre formel de gouvernance de l'IA.
Des enjeux spécifiques au secteur
La santé présente des caractéristiques qui rendent la gouvernance de l'IA particulièrement complexe :
Sensibilité extrême des données
Les données de santé sont parmi les plus sensibles qui existent. Leur utilisation pour entraîner des modèles d'IA soulève des questions fondamentales de consentement, de confidentialité et de propriété intellectuelle. La Loi 25 impose des obligations strictes, mais son application aux contextes d'IA en santé reste floue.
Risques vitaux
Contrairement à d'autres secteurs, une erreur algorithmique en santé peut avoir des conséquences directes sur la vie des patients. Un système de diagnostic qui produit un faux négatif, un algorithme de dosage qui se trompe, les enjeux sont littéralement vitaux.
Équité d'accès
Les biais algorithmiques dans les systèmes de santé peuvent amplifier les inégalités existantes. Des études ont montré que certains algorithmes de triage sous-évaluent systématiquement les besoins de certaines populations, perpétuant des disparités de soins.
Vers un cadre de gouvernance adapté
Le Cercle travaille actuellement avec plusieurs établissements du réseau pour développer un cadre de gouvernance spécifique au secteur de la santé. Ce cadre repose sur cinq principes directeurs :
- Primauté du patient : toute décision algorithmique doit pouvoir être révisée par un professionnel de santé
- Transparence clinique : les cliniciens doivent comprendre les recommandations de l'IA
- Validation continue : les performances des systèmes doivent être surveillées en temps réel
- Équité vérifiable : des audits réguliers doivent mesurer les biais potentiels
- Traçabilité complète : chaque décision assistée par l'IA doit être documentée
Un appel à l'action
Le MSSS a récemment signalé son intention de publier des lignes directrices sur l'utilisation de l'IA dans le réseau. C'est une avancée positive, mais les établissements ne doivent pas attendre ces directives pour agir.
Les outils existent déjà : registres de systèmes IA, grilles d'évaluation des risques, modèles de politiques internes. Le Cercle met à disposition de ses membres un ensemble de ressources spécialement adaptées au contexte de la santé.



