L'opacité algorithmique comme défi démocratique
Les systèmes d'intelligence artificielle, en particulier ceux fondés sur l'apprentissage profond, sont souvent qualifiés de « boîtes noires ». Leurs processus décisionnels, fondés sur des millions voire des milliards de paramètres, défient la compréhension humaine. Cette opacité pose un problème fondamental dans une société démocratique comme le Québec : comment les citoyens peuvent-ils exercer leur droit de regard sur des décisions qui les affectent si les mécanismes qui produisent ces décisions sont incompréhensibles ?
Les dimensions de la transparence algorithmique
La transparence algorithmique est un concept multidimensionnel qui englobe plusieurs exigences distinctes.
La transparence sur le recours à l'IA consiste à informer les personnes qu'un système d'intelligence artificielle est utilisé dans un processus qui les concerne. Cette exigence minimale est déjà consacrée par la Loi 25 pour les décisions fondées exclusivement sur un traitement automatisé de renseignements personnels. Mais elle devrait s'étendre, dans une perspective de gouvernance responsable, à toute utilisation significative de l'IA dans les interactions avec les citoyens et les clients.
L'explicabilité des décisions va plus loin que la simple notification. Elle implique la capacité de fournir une explication compréhensible des raisons pour lesquelles un système d'IA a produit un résultat donné. Pour un professionnel, il s'agit de comprendre les facteurs qui ont influencé la décision. Pour une personne affectée, il s'agit de comprendre pourquoi elle a reçu tel résultat plutôt qu'un autre.
L'auditabilité concerne la possibilité pour des tiers, organismes de surveillance, auditeurs indépendants, chercheurs, d'examiner le fonctionnement d'un système d'IA pour vérifier sa conformité aux normes et aux principes éthiques. Cette dimension est essentielle pour la reddition de comptes et la confiance institutionnelle.
La traçabilité implique la capacité de retracer les données, les processus et les décisions qui ont mené à un résultat donné. Elle est indispensable pour enquêter sur des problèmes, corriger des erreurs et établir les responsabilités.
Le cadre juridique québécois en matière de transparence
La Loi 25 a introduit des obligations de transparence spécifiques pour les décisions automatisées. Les organisations doivent informer les personnes concernées du fait qu'une décision a été prise de manière exclusivement automatisée et leur permettre de faire réviser cette décision. Elles doivent également être en mesure de communiquer les renseignements personnels utilisés et les raisons et principaux facteurs ayant mené à la décision.
Ces obligations constituent un socle important, mais elles présentent des limites. La restriction aux décisions « exclusivement » automatisées laisse hors de portée de nombreux systèmes d'aide à la décision qui, dans les faits, exercent une influence déterminante sur les décisions finales. La notion de « raisons et principaux facteurs » reste vague et pourrait se prêter à des interprétations minimalistes.
La Charte des droits et libertés de la personne du Québec, en protégeant les droits à l'égalité et à la dignité, fonde indirectement une exigence de transparence pour les systèmes d'IA susceptibles de porter atteinte à ces droits. Une personne qui fait l'objet d'une discrimination algorithmique doit être en mesure de comprendre et de contester la décision qui la concerne.
Les défis techniques de l'explicabilité
L'explicabilité algorithmique est un champ de recherche actif auquel les institutions québécoises contribuent de manière significative. Plusieurs approches coexistent.
Les méthodes post hoc produisent des explications après que le modèle a pris sa décision. LIME (Local Interpretable Model-agnostic Explanations) et SHAP (SHapley Additive exPlanations) sont des techniques qui identifient les facteurs ayant le plus contribué à une décision particulière. Ces méthodes ont l'avantage de s'appliquer à n'importe quel type de modèle, mais leurs explications sont des approximations qui ne reflètent pas nécessairement le fonctionnement réel du modèle.
Les modèles interprétables par conception, arbres de décision, modèles linéaires, systèmes à base de règles, offrent une transparence intrinsèque, car leurs processus décisionnels sont directement compréhensibles. Toutefois, ces modèles peuvent être moins performants que les modèles complexes pour certaines tâches. La recherche s'efforce de développer des modèles qui combinent interprétabilité et haute performance.
Les explications contrefactuelles répondent à la question « qu'est-ce qui aurait dû changer pour que la décision soit différente ? ». Cette approche est particulièrement utile pour les personnes affectées par une décision, car elle leur indique les leviers d'action à leur disposition.
La transparence dans le secteur public québécois
L'utilisation de l'IA dans les organismes publics québécois soulève des exigences de transparence renforcées. La Loi sur l'accès aux documents des organismes publics garantit aux citoyens un droit d'accès aux documents détenus par les organismes publics. L'application de ce droit aux systèmes d'IA, code source, données d'entraînement, paramètres du modèle, résultats d'évaluation, est un enjeu émergent qui devra être clarifié.
Plusieurs gouvernements dans le monde ont adopté des registres d'algorithmes publics, qui documentent les systèmes d'IA utilisés dans la prise de décision gouvernementale. Le Québec pourrait s'inspirer de ces initiatives pour établir un registre des systèmes d'IA déployés dans l'administration publique, décrivant leur finalité, leur fonctionnement général, les données utilisées et les mécanismes de contrôle en place.
La transparence et le secret commercial
L'un des obstacles les plus fréquemment invoqués à la transparence algorithmique est la protection du secret commercial. Les entreprises qui développent des systèmes d'IA considèrent souvent leurs algorithmes et leurs données comme des actifs stratégiques qu'elles ne souhaitent pas divulguer. Cette tension entre transparence et secret commercial est un enjeu de gouvernance majeur.
Plusieurs pistes permettent de concilier ces exigences. L'audit par des tiers indépendants permet de vérifier le fonctionnement d'un système sans en divulguer les détails au public. La transparence sur les résultats, performances, métriques d'équité, taux d'erreur, peut fournir des informations utiles sans révéler les mécanismes internes du système. Les environnements d'audit sécurisés (sandboxes) permettent aux organismes de surveillance d'examiner les systèmes dans des conditions contrôlées.
Recommandations
Pour renforcer la transparence algorithmique au Québec, plusieurs mesures pourraient être envisagées : élargir les obligations de transparence au-delà des décisions « exclusivement » automatisées pour couvrir les systèmes d'aide à la décision à fort impact, développer des normes sectorielles d'explicabilité adaptées aux contextes d'utilisation, créer un registre public des systèmes d'IA utilisés par les organismes gouvernementaux, soutenir la recherche en explicabilité algorithmique, former les professionnels du droit et les organismes de surveillance aux enjeux techniques de la transparence algorithmique, et établir des mécanismes d'audit indépendant accessibles.
Conclusion
La transparence algorithmique n'est pas un luxe ni un obstacle à l'innovation : c'est une condition de la légitimité démocratique de l'IA. Dans une société qui valorise la participation citoyenne et la reddition de comptes, l'opacité des systèmes décisionnels algorithmiques est inacceptable. Le Québec doit affirmer son engagement envers la transparence et se doter des outils juridiques, techniques et institutionnels nécessaires pour le concrétiser.



