La technologie aux portes du palais de justice
L'intelligence artificielle fait son entrée progressive dans les systèmes judiciaires du monde entier, et le Québec n'y échappe pas. De l'aide à la recherche juridique à l'évaluation des risques de récidive, de la prédiction des issues judiciaires à l'automatisation des tâches administratives, l'IA promet de rendre la justice plus rapide, plus accessible et plus cohérente. Mais cette promesse s'accompagne de risques fondamentaux pour les droits des justiciables, l'indépendance judiciaire et l'équité du système de justice. Le Québec, avec sa tradition de droit civil et son attachement aux droits fondamentaux, doit aborder cette transformation avec une prudence particulière.
Les applications actuelles et émergentes
Plusieurs applications d'IA sont déjà utilisées ou en voie de l'être dans le milieu juridique québécois.
La recherche juridique assistée par l'IA est l'application la plus répandue. Des outils alimentés par le traitement automatique du langage permettent aux avocats et aux juges de rechercher la jurisprudence, la doctrine et la législation avec une rapidité et une exhaustivité que les méthodes traditionnelles ne permettent pas. Ces outils peuvent identifier des décisions pertinentes, synthétiser des courants jurisprudentiels et signaler des contradictions dans la jurisprudence.
La rédaction juridique assistée par l'IA générative gagne en popularité. Les outils comme ChatGPT et Claude sont utilisés par des avocats pour préparer des ébauches de mémoires, des résumés de faits et des analyses juridiques. Cette pratique soulève toutefois des risques documentés : des cas d'avocats ayant soumis à des tribunaux des mémoires contenant des citations jurisprudentielles inventées par l'IA ont été rapportés dans plusieurs juridictions, entraînant des sanctions disciplinaires.
Les outils de prédiction des issues judiciaires analysent les données historiques des tribunaux pour estimer la probabilité de succès d'une action en justice, les montants probables de dommages ou les peines susceptibles d'être imposées. Ces outils peuvent informer les décisions stratégiques des avocats et de leurs clients, mais ils risquent aussi de créer une prophétie auto-réalisatrice si les acteurs du système judiciaire alignent leur comportement sur les prédictions algorithmiques.
Les systèmes d'évaluation du risque dans le domaine pénal, utilisés dans certaines juridictions pour informer les décisions de mise en liberté, de détermination de la peine ou de libération conditionnelle, sont les applications les plus controversées. L'outil COMPAS, utilisé dans plusieurs États américains, a fait l'objet de critiques pour ses biais raciaux documentés.
L'automatisation des tâches administratives, gestion des calendriers, traitement des documents, notifications aux parties, peut améliorer l'efficacité du système judiciaire et libérer du temps pour les fonctions qui requièrent un jugement humain.
Les risques pour les droits fondamentaux
L'utilisation de l'IA dans le système judiciaire comporte des risques spécifiques pour les droits fondamentaux protégés par la Charte des droits et libertés de la personne du Québec et par la Charte canadienne des droits et libertés.
Le droit à l'égalité (article 10 de la Charte québécoise) peut être compromis par des systèmes d'IA qui reproduisent des biais historiques. Si les données judiciaires reflètent des disparités dans le traitement des groupes racialisés, des femmes ou des personnes à faible revenu, les modèles d'IA entraînés sur ces données risquent de perpétuer ces disparités.
Le droit à une audience impartiale (article 23) suppose un décideur qui exerce un jugement indépendant. Si un juge s'appuie de manière excessive sur les recommandations d'un système d'IA, son indépendance de jugement peut être compromise, un phénomène connu sous le nom de « biais d'automatisation », la tendance à accorder une confiance excessive aux recommandations algorithmiques.
Le droit de connaître les motifs d'une décision est un principe fondamental de la justice naturelle. Lorsqu'un système d'IA contribue à une décision judiciaire, le justiciable doit pouvoir comprendre cette contribution. Les modèles d'IA de type « boîte noire », dont le fonctionnement interne est opaque, posent un défi direct à ce principe.
Le droit à la présomption d'innocence (article 11(d) de la Charte canadienne) peut être menacé par des systèmes de prédiction du risque qui évaluent un individu sur la base de caractéristiques statistiques plutôt que sur ses actions individuelles.
Le cadre déontologique et réglementaire
Le Barreau du Québec et la Chambre des notaires du Québec ont commencé à aborder les enjeux de l'IA dans la pratique juridique. Des lignes directrices sur l'utilisation responsable de l'IA par les avocats sont en cours d'élaboration, portant sur la vérification des contenus générés par l'IA, la confidentialité des données clients saisies dans les systèmes d'IA, la responsabilité professionnelle en cas d'erreurs imputables à l'IA et l'obligation de divulgation de l'utilisation de l'IA aux clients et aux tribunaux.
La magistrature québécoise doit également se positionner. Les règles de pratique des tribunaux devront éventuellement encadrer l'utilisation de l'IA par les parties et par les tribunaux eux-mêmes. Des formations spécifiques pour les juges sur les capacités et les limites de l'IA sont nécessaires.
Le Conseil de la magistrature du Québec et le Conseil canadien de la magistrature ont un rôle important à jouer dans l'établissement de principes directeurs pour l'utilisation de l'IA dans la fonction judiciaire.
L'accès à la justice et l'IA
L'IA peut contribuer à atténuer la crise d'accès à la justice que connaît le Québec. Les agents conversationnels juridiques peuvent fournir des informations de base sur les droits et les procédures. Les outils d'aide à la rédaction de documents juridiques peuvent permettre aux justiciables non représentés de préparer leurs actes de procédure. Les systèmes de résolution en ligne des litiges peuvent offrir des alternatives rapides et peu coûteuses aux procédures judiciaires traditionnelles.
Mais ces applications doivent être déployées avec discernement. Un agent conversationnel qui fournit des informations juridiques erronées peut causer plus de tort que de bien. Les outils de résolution en ligne des litiges doivent offrir les mêmes garanties procédurales que les tribunaux traditionnels.
Recommandations
Le Québec devrait établir un moratoire sur l'utilisation de systèmes d'évaluation du risque algorithmique dans les décisions judiciaires pénales tant qu'un cadre adéquat n'est pas en place. Des normes de transparence et d'explicabilité doivent être imposées pour tout système d'IA utilisé dans le processus judiciaire. Des audits indépendants pour les biais doivent être exigés avant le déploiement de tout outil d'IA dans les tribunaux. La formation des professionnels du droit aux enjeux de l'IA doit être intégrée dans la formation continue obligatoire. Les mécanismes de recours pour les justiciables affectés par des décisions influencées par l'IA doivent être clarifiés.
Conclusion
L'introduction de l'IA dans le système judiciaire québécois est une question de droits fondamentaux, pas seulement d'efficacité technologique. La justice est l'institution par laquelle la société protège les droits des individus et résout ses conflits. L'intégration de l'IA dans cette institution doit se faire avec le plus grand soin, en plaçant les droits des justiciables, l'indépendance judiciaire et l'équité au centre de chaque décision.



