Essayez l'outil gratuitement

Essayer
Analyse7 min de lecture

L'éthique de l'intelligence artificielle : perspectives québécoises

Au-delà de la conformité juridique, l'éthique constitue une boussole indispensable pour le développement de l'IA. Le Québec a développé une approche distincte, ancrée dans sa tradition de réflexion éthique appliquée.

FB
Florian Brobst
Fondateur & Directeur · 17 décembre 2025

Au-delà de la conformité : l'éthique comme boussole

La gouvernance de l'intelligence artificielle ne saurait se réduire au respect des lois et des règlements. Le cadre juridique établit un socle minimal de protection, mais il ne couvre pas l'ensemble des enjeux que soulève l'IA. C'est précisément là qu'intervient l'éthique : comme réflexion sur les valeurs, les principes et les finalités qui doivent orienter le développement et l'utilisation de cette technologie. Le Québec, fort d'une tradition de réflexion éthique appliquée et d'une sensibilité sociale affirmée, a développé une approche distincte en matière d'éthique de l'IA.

La tradition éthique québécoise et l'IA

Le Québec possède une tradition riche en matière d'éthique appliquée, notamment dans le domaine de la bioéthique et de l'éthique de la recherche. Les comités d'éthique de la recherche des universités et des établissements de santé québécois ont développé, au fil des décennies, une expertise reconnue dans l'évaluation des enjeux éthiques liés aux technologies et à la recherche impliquant des êtres humains. Cette tradition constitue un terreau fertile pour la réflexion sur l'éthique de l'IA.

La Commission de l'éthique en science et en technologie (CEST), organisme indépendant qui conseille le gouvernement du Québec, a contribué à la réflexion sur les enjeux éthiques des technologies numériques et de l'IA. Ses avis et rapports offrent un éclairage précieux sur les questions de fond que soulèvent ces technologies pour la société québécoise.

L'approche québécoise de l'éthique de l'IA se caractérise par plusieurs traits distinctifs. Elle est participative, comme en témoigne la démarche de cocréation citoyenne ayant mené à la Déclaration de Montréal. Elle est interdisciplinaire, mobilisant des perspectives issues de la philosophie, du droit, des sciences sociales, de l'informatique et de la santé. Elle est attentive aux enjeux de justice sociale et d'équité, reflétant les valeurs de solidarité qui caractérisent la société québécoise.

Les principes éthiques fondamentaux

Plusieurs principes éthiques fondamentaux structurent la réflexion québécoise sur l'IA.

Le principe de bienfaisance et de non-malfaisance exige que les systèmes d'IA soient conçus et utilisés pour contribuer au bien-être des personnes et de la société, tout en minimisant les risques de préjudice. Dans le contexte québécois, ce principe se traduit par une attention particulière aux impacts des systèmes d'IA sur les populations vulnérables et sur les communautés marginalisées.

Le principe d'autonomie reconnaît le droit des personnes à prendre des décisions éclairées concernant l'utilisation de l'IA qui les affecte. Il implique la transparence sur le recours à l'IA, la possibilité de comprendre les décisions algorithmiques et le droit de s'y opposer. Ce principe est intimement lié aux dispositions de la Loi 25 sur la transparence des décisions automatisées, mais il va au-delà du cadre juridique en englobant une exigence plus large d'autodétermination informationnelle.

Le principe d'équité et de non-discrimination exige que les systèmes d'IA ne reproduisent pas, n'amplifient pas et ne créent pas de nouvelles formes de discrimination. Au Québec, ce principe résonne particulièrement avec les protections offertes par la Charte des droits et libertés de la personne et avec les préoccupations relatives à l'équité envers les Premiers Peuples, les communautés racisées, les personnes en situation de handicap et les autres groupes historiquement marginalisés.

Le principe de responsabilité implique que les organisations qui développent et déploient des systèmes d'IA assument la responsabilité de leurs impacts. Cela suppose la mise en place de mécanismes de reddition de comptes, la traçabilité des décisions algorithmiques et la possibilité pour les personnes affectées d'obtenir réparation en cas de préjudice.

Le principe de transparence exige que le fonctionnement des systèmes d'IA soit compréhensible et vérifiable. Ce principe se décline en transparence sur le recours à l'IA, en explicabilité des décisions algorithmiques et en auditabilité des systèmes.

Les enjeux éthiques spécifiques au contexte québécois

Certains enjeux éthiques revêtent une importance particulière dans le contexte québécois.

La question linguistique est un enjeu éthique de premier plan. Les systèmes d'IA, souvent développés à partir de données majoritairement anglophones, peuvent présenter des performances inférieures en français, ce qui crée une inégalité d'accès et de qualité de service pour les francophones. Développer et déployer des systèmes d'IA qui fonctionnent de manière équitable en français est un impératif éthique autant que culturel et politique.

Les droits des Premiers Peuples dans le contexte de l'IA constituent un enjeu crucial. Les systèmes d'IA peuvent affecter les communautés autochtones de manières spécifiques, que ce soit par l'utilisation de leurs données sans consentement adéquat, par le renforcement de biais systémiques dans les services publics ou par l'impact sur les langues et les cultures autochtones. La gouvernance éthique de l'IA au Québec doit prendre en compte les principes de souveraineté des données autochtones et de consentement préalable, libre et éclairé des communautés concernées.

L'impact de l'IA sur le tissu social québécois est un autre enjeu majeur. L'automatisation peut fragiliser des secteurs d'emploi importants pour l'économie régionale. Les systèmes de recommandation et de personnalisation peuvent contribuer à la polarisation du débat public. L'utilisation de l'IA dans les services publics peut créer des fractures numériques entre les populations qui maîtrisent les technologies et celles qui en sont exclues. L'éthique de l'IA doit intégrer ces préoccupations sociales et veiller à ce que le progrès technologique ne se fasse pas au détriment de la cohésion sociale.

De l'éthique aux pratiques

Traduire les principes éthiques en pratiques organisationnelles concrètes est le défi central de l'éthique appliquée de l'IA. Plusieurs mécanismes peuvent y contribuer.

Les comités d'éthique de l'IA, au sein des organisations, peuvent jouer un rôle consultatif dans l'évaluation des projets d'IA à risque élevé. Ces comités, composés de personnes aux expertises diversifiées, peuvent examiner les implications éthiques d'un projet, formuler des recommandations et assurer un suivi des mesures mises en place.

Les évaluations d'impact algorithmique (EIA) constituent un outil structurant pour intégrer la réflexion éthique dans le cycle de développement des systèmes d'IA. Allant au-delà de l'EFVP centrée sur la vie privée, l'EIA examine l'ensemble des impacts potentiels d'un système, sur l'équité, l'autonomie, la transparence, la sécurité et le bien-être, et propose des mesures d'atténuation.

La formation éthique des professionnels de l'IA est un levier essentiel. Les concepteurs, les développeurs et les gestionnaires de systèmes d'IA doivent être outillés pour reconnaître les enjeux éthiques et y répondre de manière adéquate. Les programmes de formation en IA au Québec intègrent de plus en plus des modules d'éthique, mais des efforts supplémentaires sont nécessaires pour que cette dimension devienne véritablement transversale.

La participation citoyenne est une composante distinctive de l'approche québécoise. La Déclaration de Montréal a démontré la faisabilité et la valeur d'une démarche participative en matière d'éthique de l'IA. Cette approche doit être poursuivie et approfondie pour s'assurer que les citoyens ont voix au chapitre dans les décisions qui affectent leur quotidien.

Les limites de l'approche éthique

L'éthique, aussi importante soit-elle, ne saurait constituer à elle seule un cadre de gouvernance suffisant. Les principes éthiques sont souvent formulés de manière abstraite et peuvent se prêter à des interprétations divergentes. Ils n'ont pas de force contraignante en eux-mêmes et leur application dépend de la bonne volonté des acteurs. L'éthique peut aussi être instrumentalisée, l'« ethics washing » désigne la pratique consistant à afficher des principes éthiques sans les mettre véritablement en œuvre.

C'est pourquoi l'éthique doit être articulée avec le droit, avec les mécanismes institutionnels de surveillance et de contrôle, et avec les normes techniques. L'éthique oriente, le droit contraint, les institutions surveillent et les normes techniques opérationnalisent. C'est la combinaison de ces quatre dimensions qui permet une gouvernance véritablement efficace de l'IA.

Conclusion

Le Québec a développé une approche éthique de l'IA qui se distingue par son caractère participatif, interdisciplinaire et socialement ancré. Cette approche constitue un atout précieux pour relever les défis de la gouvernance de l'IA. Mais elle doit continuer à évoluer, à s'enrichir de l'expérience et à se traduire en pratiques concrètes pour maintenir sa pertinence et son efficacité. L'éthique de l'IA n'est pas un état à atteindre : c'est un processus continu de réflexion, de dialogue et d'adaptation que chaque professionnel et chaque organisation doit s'approprier.


Partager :
FB
Florian Brobst
Fondateur & Directeur

Spécialiste en gouvernance de l’intelligence artificielle, Florian accompagne les organisations dans la mise en place de cadres de gouvernance responsables et conformes aux réglementations émergentes.

Restez inform\u00e9

Abonnez-vous \u00e0 notre infolettre pour ne rien manquer.

Nous contacter

Ce site utilise des cookies essentiels et fonctionnels pour améliorer votre expérience. Politique de confidentialité