Une sentence arbitrale annulée pour cause d'hallucinations
Le 22 avril 2026, le juge Martin F. Sheehan de la Cour supérieure du Québec (chambre commerciale) a rendu une décision appelée à faire date dans la jurisprudence québécoise sur l'intelligence artificielle. Dans ARIHQ c. Santé Québec (2026 QCCS 1360), le tribunal annule une sentence arbitrale au motif que ses références doctrinales et jurisprudentielles étaient des hallucinations produites par un outil d'IA générative. C'est le premier précédent québécois qui pose des balises concrètes sur l'usage de l'IA par les arbitres et, par extension, par tous les décideurs exerçant une fonction juridictionnelle.
L'affaire opposait l'Association des ressources intermédiaires d'hébergement du Québec (ARIHQ) et le Centre de santé Osman au CIUSSS du Centre-Sud-de-l'Île-de-Montréal, dans un différend portant sur 1,225 million de dollars liés à des places d'hébergement non pourvues entre 2019 et 2022. L'arbitre avait initialement rejeté la réclamation pour tardiveté. La Cour supérieure ne tranche pas sur le fond, mais elle invalide le processus parce que la sentence reposait, en partie, sur du vide juridique.
Quatre références inventées de toutes pièces
Lors de l'examen de la sentence, les avocats de la demanderesse ont découvert que plusieurs autorités citées par l'arbitre n'existaient tout simplement pas. La Cour supérieure recense quatre catégories de fabrications :
- un article attribué au professeur Frédéric Bachand qui n'a jamais été publié,
- une fausse décision Ville de Montréal c. Syndicat (2005 QCCA 591),
- une fausse décision Groleau et Groupe Pages Jaunes (2011 QCCS 5386),
- une fausse décision Tremblay c. Commission scolaire (2002 CanLII 24357).
Aucune de ces références n'a pu être retracée dans les bases de données juridiques. L'arbitre n'avait pas identifié l'outil utilisé, mais le profil des erreurs (fausses citations crédibles, parfois assorties de numéros de paragraphe précis) correspond au comportement classique des grands modèles de langage lorsqu'ils tentent de combler des trous dans leurs connaissances.
Le principe : delegatus non potest delegare
Le raisonnement du juge Sheehan repose sur un principe ancien du droit administratif et arbitral, exprimé par la maxime latine delegatus non potest delegare : celui à qui un pouvoir est délégué ne peut le déléguer à son tour. Les parties à un arbitrage choisissent un arbitre précis, en raison de son expertise, de sa réputation ou de son indépendance. Confier la rédaction des motifs ou la recherche des autorités à un outil d'IA, sans contrôle humain rigoureux, revient à transférer une partie du pouvoir décisionnel à une machine que les parties n'ont jamais choisie.
Le tribunal articule trois piliers complémentaires. D'abord, l'autonomie de la volonté des parties, fondement du droit arbitral québécois, exige que la décision émane bien du décideur retenu. Ensuite, le processus de rédaction des motifs n'est pas une simple formalité : il force le décideur à structurer son raisonnement, à confronter les arguments et à éprouver ses propres conclusions. La Cour suprême avait déjà affirmé ce principe dans Baker c. Canada en 1999. Enfin, le secret du délibéré, codifié à l'article 644 du Code de procédure civile, est compromis lorsque des éléments du dossier sont transmis à un outil externe dont les serveurs et les politiques de conservation échappent au contrôle de l'arbitre.
Cinq risques systémiques
Au-delà du cas particulier, le jugement énumère cinq risques que pose l'usage de l'IA générative dans une fonction juridictionnelle :
- les hallucinations, qui produisent de fausses références d'apparence crédible, indétectables sans vérification minutieuse,
- l'absence de discrétion judiciaire, l'IA ne pouvant intégrer les valeurs communautaires ni le contexte particulier d'un dossier,
- les biais algorithmiques, hérités des données d'entraînement et opaques par nature,
- la confidentialité compromise lorsque les données du dossier alimentent un service externe,
- l'érosion de la confiance publique envers le système de justice si la frontière entre la machine et le décideur humain devient floue.
Cette grille de lecture rejoint largement celle développée par le Conseil canadien de la magistrature dans ses Lignes directrices pour l'utilisation de l'IA dans les tribunaux canadiens (septembre 2024) et par l'Avis à la communauté juridique de la Cour supérieure du Québec d'octobre 2023.
Encadrer plutôt qu'interdire
Le juge Sheehan refuse explicitement l'interdiction absolue. S'inspirant de la décision Specter Aviation c. Laprade (2025 QCCS 3521), il rappelle que la technologie doit être encadrée, non proscrite. L'IA peut donc assister un arbitre ou un juge dans des tâches comme la traduction, la mise en forme ou la recherche initiale, à condition que la responsabilité humaine demeure entière sur les motifs et les autorités citées.
La sanction reste proportionnelle. Le tribunal regarde la nature du manquement procédural, l'atteinte à l'intégrité du processus et l'impact concret de l'IA sur la sentence. Dans ARIHQ, ces trois critères convergent : les fausses autorités étaient au cœur du raisonnement de l'arbitre, ce qui justifiait l'annulation.
Implications pour la gouvernance québécoise de l'IA
Pour les arbitres, juges administratifs et tribunaux spécialisés, la décision impose une diligence renforcée : vérifier chaque citation générée par IA, documenter les outils utilisés, refuser d'introduire des éléments confidentiels du dossier dans des services externes et conserver la rédaction des motifs comme un acte exclusivement humain.
Pour les ordres professionnels et les organismes de régulation, la décision conforte les chantiers en cours. Le Barreau du Québec, la Chambre des notaires, les conseils de la magistrature et les institutions arbitrales (Centre canadien d'arbitrage commercial, ICA, ADR Institute of Canada) ont des balises directement opposables : un arbitre ou un juge qui délègue sa fonction décisionnelle à un modèle de langage s'expose à la nullité de sa décision.
Pour le débat public sur la gouvernance de l'IA au Québec, ARIHQ démontre que les tribunaux sont capables d'agir sans attendre le législateur. Faute de loi-cadre fédérale (la LIAD a expiré avec la dissolution du Parlement en 2025) et en l'absence de directive sectorielle spécifique pour la justice privée, c'est la jurisprudence qui établit les premiers garde-fous. La régulation par le bas, fondée sur les principes existants du droit civil et du droit administratif, vient ici suppléer le vide normatif.
Sources
- Justice-Québec, La Cour supérieure annule une sentence arbitrale rédigée à l'aide de l'intelligence artificielle, https://www.justice-quebec.ca/3142878_la-cour-superieure-annule-une-sentence-arbitrale-redigee-a-l-aide-de-l-intelligence-artificielle
- Droit-inc, Utilisation de l'IA générative devant les tribunaux : la Cour supérieure du Québec sanctionne une partie non représentée, https://www.droit-inc.com/conseils-carriere/opinions/utilisation-de-lia-generative-devant-les-tribunaux-la-cour-superieure-du-quebec-sanctionne-une-partie-non-representee
- Conseil canadien de la magistrature, Lignes directrices pour l'utilisation de l'IA dans les tribunaux canadiens, septembre 2024
- Cour supérieure du Québec, Avis à la communauté juridique sur l'IA, 24 octobre 2023
- Code de procédure civile du Québec, article 644 (secret du délibéré)
- Cour suprême du Canada, Baker c. Canada (Ministre de la Citoyenneté et de l'Immigration), [1999] 2 R.C.S. 817



