L'IA au cœur du contrat social
L'intelligence artificielle s'immisce dans les mécanismes fondamentaux de la démocratie, la formation de l'opinion publique, le processus électoral, la prise de décision gouvernementale et la participation citoyenne. Cette pénétration soulève des questions profondes sur le contrat social québécois : comment maintenir une démocratie vivante et authentique lorsque des algorithmes façonnent ce que les citoyens voient, savent et croient ?
L'IA dans la sphère publique québécoise
L'utilisation de l'IA par les gouvernements et les institutions publiques transforme la relation entre l'État et les citoyens. Au Québec comme ailleurs, les administrations publiques déploient des systèmes automatisés pour l'attribution de services sociaux, l'évaluation de demandes administratives, la détection de fraude fiscale, l'allocation de ressources en santé et en éducation, et la priorisation des interventions policières.
Chacune de ces applications implique des décisions qui affectent directement les droits et les conditions de vie des citoyens. Lorsque ces décisions sont prises ou influencées par des algorithmes, la question de la légitimité démocratique se pose avec acuité. Les citoyens ont le droit de comprendre comment les décisions qui les concernent sont prises, de contester ces décisions et de demander des comptes aux responsables.
La Loi 25 du Québec reconnaît ce droit en imposant une obligation de transparence lorsqu'une décision est fondée exclusivement sur un traitement automatisé de renseignements personnels. Mais cette disposition, en ne couvrant que les décisions « exclusivement » automatisées, laisse dans l'ombre la vaste majorité des cas où l'IA influence sans déterminer seule la décision.
La manipulation algorithmique de l'opinion publique
Les algorithmes de recommandation des plateformes numériques exercent une influence considérable sur la formation de l'opinion publique. En sélectionnant les contenus que chaque utilisateur voit, articles de presse, publications sur les réseaux sociaux, vidéos, publicités, ces systèmes créent des environnements informationnels personnalisés qui peuvent renforcer les biais cognitifs, polariser le débat public et amplifier la désinformation.
Pour le Québec, société francophone en Amérique du Nord, cette dynamique prend une dimension particulière. Les algorithmes des grandes plateformes sont conçus et optimisés principalement pour les marchés anglophones, et leur fonctionnement dans l'écosystème médiatique francophone est mal compris et mal encadré. Le risque est que le débat public québécois soit façonné par des logiques algorithmiques qui ne tiennent pas compte des spécificités culturelles et linguistiques de la société québécoise.
La période électorale concentre les risques. Les campagnes de micro-ciblage politique, amplifiées par l'IA, permettent d'adresser des messages sur mesure à des segments très précis de l'électorat, en exploitant leurs préoccupations, leurs peurs et leurs aspirations. Cette personnalisation extrême du discours politique érode le socle commun d'information nécessaire au débat démocratique.
La participation citoyenne augmentée par l'IA
L'IA offre aussi des possibilités inédites pour renforcer la participation citoyenne. Les outils de consultation en ligne peuvent utiliser le traitement automatique du langage naturel pour analyser des milliers de contributions citoyennes, en identifier les thèmes récurrents et les points de convergence, et produire des synthèses qui informent la prise de décision. Plusieurs juridictions expérimentent des « assemblées citoyennes augmentées » où l'IA facilite la délibération en fournissant des informations factuelles, en identifiant les points de consensus et de désaccord, et en aidant à la formulation de recommandations.
Le Québec, avec sa tradition de consultation publique, commissions parlementaires, consultations du BAPE, audiences de la CAI, pourrait intégrer des outils d'IA pour rendre ces processus plus accessibles et plus inclusifs. L'IA pourrait faciliter la participation des citoyens qui maîtrisent moins bien l'écrit, qui vivent en région éloignée ou qui font face à des barrières linguistiques.
Mais l'utilisation de l'IA dans les processus de participation citoyenne soulève aussi des questions. Qui conçoit les algorithmes qui synthétisent les contributions citoyennes ? Quels biais peuvent influencer cette synthèse ? Comment s'assurer que la voix des minorités n'est pas noyée dans l'agrégation algorithmique des opinions ?
La transparence algorithmique comme impératif démocratique
La transparence des systèmes d'IA utilisés dans la sphère publique est un impératif démocratique, pas seulement une exigence technique. Les citoyens doivent pouvoir comprendre, au moins dans leurs grandes lignes, comment les algorithmes qui affectent leurs droits et leurs opportunités fonctionnent.
Cette transparence prend plusieurs formes. La transparence institutionnelle implique que les organismes publics divulguent quels systèmes d'IA ils utilisent, dans quels contextes et avec quelles garanties. La transparence technique exige que les modèles soient documentés de manière à permettre un examen indépendant. La transparence procédurale suppose que les processus de développement, de validation et de déploiement des systèmes d'IA soient soumis à un contrôle démocratique.
Le Québec pourrait s'inspirer de l'initiative de la ville d'Amsterdam, qui a créé un registre public des algorithmes utilisés par l'administration municipale, ou du modèle français de la Commission nationale de l'informatique et des libertés (CNIL), qui publie des avis détaillés sur les systèmes algorithmiques déployés dans le secteur public.
L'IA et le système judiciaire
L'utilisation de l'IA dans le système judiciaire soulève des enjeux démocratiques fondamentaux. Les outils d'aide à la décision judiciaire, évaluation du risque de récidive, aide à la détermination de la peine, analyse prédictive de la criminalité, peuvent améliorer l'efficacité du système, mais ils peuvent aussi perpétuer des discriminations systémiques et miner le principe de l'individualisation de la justice.
Au Québec, l'introduction de ces outils doit se faire avec une extrême prudence, dans le respect des droits garantis par la Charte des droits et libertés de la personne et avec la participation des acteurs du milieu judiciaire, juges, avocats, justiciables et organismes de défense des droits.
Les garde-fous nécessaires
La protection de la démocratie à l'ère de l'IA exige un ensemble de garde-fous. L'éducation civique doit intégrer la compréhension des enjeux algorithmiques pour que les citoyens puissent exercer leur jugement critique dans un environnement informationnel médié par l'IA. Les institutions de contrôle, le Vérificateur général, le Protecteur du citoyen, la Commission d'accès à l'information, doivent disposer des compétences et des ressources nécessaires pour examiner les systèmes d'IA utilisés par l'État.
Les organisations de la société civile, médias, associations, organismes de recherche, jouent un rôle essentiel de vigie et de contre-pouvoir. Leur capacité à analyser et à critiquer les systèmes d'IA doit être soutenue.
Conclusion
La démocratie québécoise fait face à un double défi : se protéger contre les risques que l'IA fait peser sur l'intégrité des processus démocratiques, tout en exploitant le potentiel de l'IA pour renforcer la participation citoyenne et la qualité de la gouvernance. Relever ce défi exige une approche qui place les droits fondamentaux et la souveraineté populaire au centre de la gouvernance de l'IA, et qui mobilise l'ensemble des acteurs de la société, État, citoyens, entreprises, société civile, dans la construction d'un modèle démocratique adapté à l'ère algorithmique.



