Essayez l'outil gratuitement

Essayer
Veille5 min de lecture

Masquer les accents par IA dans les centres d'appels : un test pour la gouvernance québécoise et canadienne

Une grande télécom canadienne utilise l'IA pour modifier en temps réel l'accent d'employés à l'étranger. Les syndicats demandent un encadrement. Pour Québec et Ottawa, le dossier croise Loi 25, droits de la personne et stratégie nationale annoncée par Evan Solomon.

FB
Florian Brobst
Fondateur & Directeur · 11 mai 2026

Une révélation qui secoue le secteur des télécommunications

Une révélation publiée le 5 mai 2026 par La Presse, Le Devoir, Radio-Canada et plusieurs médias québécois force la question de la gouvernance de l'IA au travail à sortir des conférences d'experts pour entrer dans les salles à manger. L'Alliance canadienne des travailleurs et travailleuses des télécommunications (ACTT) a confirmé qu'une des trois grandes télécoms canadiennes utilise une technologie d'intelligence artificielle pour modifier en temps réel l'accent d'employés œuvrant dans des centres d'appels à l'étranger, afin que les clients croient s'adresser à un employé d'ici.

Le dispositif transforme la voix en cours de conversation, sans préavis ni au travailleur ni au client. Pour l'instant, la technologie ne fonctionne qu'en anglais, mais rien dans son architecture ne l'empêche d'être étendue au français. Rogers et Bell ont nié l'utiliser. Telus a refusé de commenter, tout en rappelant un partenariat annoncé l'an dernier avec une firme spécialisée dans l'amélioration de la communication orale et la réduction d'accent par IA.

Ce que disent les syndicats

L'ACTT regroupe Unifor, le Syndicat des Métallos et le Syndicat canadien de la fonction publique (SCFP). Ensemble, ces organisations représentent 32 000 travailleurs du secteur des télécommunications au Canada, tous affiliés à la FTQ au Québec. Selon Roch Leblanc, directeur du secteur des télécommunications chez Unifor, l'usage de l'IA pour masquer un accent peut « tromper des Canadiens » qui ignorent que leur interlocuteur ne se trouve pas au pays.

L'Alliance avance trois demandes politiques : protéger les emplois locaux, encadrer le déploiement de l'IA en milieu de travail et renforcer la sécurité des renseignements personnels que les clients confient à un agent dont ils ignorent la véritable localisation. Le contexte est lourd : l'ACTT estime qu'environ 20 000 emplois ont été perdus dans le secteur canadien des télécoms en dix à quinze ans, sous l'effet conjugué de l'automatisation et de la délocalisation.

Un cas d'école pour la Loi 25

Pour le Québec, l'affaire concentre plusieurs zones grises de la Loi 25. La voix est un renseignement personnel; modifiée et stockée à distance, elle peut nourrir des modèles de reconnaissance ou de profilage soumis aux articles 8.1 et 12.1 de la Loi sur la protection des renseignements personnels dans le secteur privé. Le client n'a, dans la configuration actuelle, ni avis explicite, ni consentement éclairé, ni mécanisme connu pour s'opposer au traitement. Côté employeur, la transformation algorithmique de la voix d'un salarié soulève la question de la surveillance et du droit à la dignité au travail, déjà encadrés par le mémoire de la Commission d'accès à l'information « L'IA au travail : pour un meilleur encadrement » publié en 2024.

La Commission des droits de la personne et des droits de la jeunesse (CDPDJ) peut également être saisie : le procédé vise spécifiquement à neutraliser un marqueur identitaire associé à l'origine nationale ou ethnique, ce qui touche un motif protégé par la Charte. Sans débat de fond, le déploiement risque de glisser vers une normalisation qui pèse sur les travailleurs racialisés.

Le dossier remonte à Ottawa

Au niveau fédéral, le ministre de l'Intelligence artificielle et de l'Innovation numérique, Evan Solomon, a réagi en indiquant que la stratégie nationale en IA, attendue depuis l'automne 2025, serait dévoilée « très bientôt » et qu'elle aborderait les enjeux d'IA au travail et de transparence. Le ministre rappelle que l'objectif n'est pas une simple resucée du projet de Loi sur l'intelligence artificielle et les données (LIAD) inclus dans l'ancien C-27, mais une initiative législative distincte, articulée autour des six piliers présentés dans l'énoncé économique de printemps.

Le Commissariat à la protection de la vie privée du Canada vient justement de boucler son enquête conjointe avec la CAI, l'OIPC de l'Alberta et celui de la Colombie-Britannique sur OpenAI, dont les conclusions du 6 mai 2026 confirment la compétence des autorités provinciales et fédérales lorsqu'un service d'IA traite des données canadiennes. La logique pourra s'appliquer à un éditeur de logiciel de modification vocale, surtout si ses serveurs se trouvent hors Canada.

Ce qu'il manque dans la boîte à outils

Trois lacunes ressortent. D'abord, aucun cadre actuel n'oblige une entreprise à divulguer au client qu'il s'adresse à un agent dont la voix est altérée par IA, contrairement aux exigences de marquage des contenus synthétiques prévues dans l'AI Act européen ou dans le projet de loi 24 québécois sur les hypertrucages. Ensuite, l'évaluation des facteurs relatifs à la vie privée prévue à l'article 3.3 de la Loi 25 ne semble pas couvrir explicitement la transformation biométrique vocale, qui glisse entre les mailles des grilles d'analyse algorithmique. Enfin, le Conseil consultatif du travail et de la main-d'œuvre a publié en avril dernier un avis demandant la création d'un mécanisme tripartite d'évaluation des déploiements d'IA en milieu de travail, recommandation qui pourrait trouver son premier cas d'application avec ce dossier.

L'affaire des accents masqués est petite par son volume, considérable par sa portée symbolique : elle expose ce que produit un déploiement d'IA quand la transparence, le consentement et la non-discrimination ne sont ni techniquement contraints, ni juridiquement opposables. Pour les régulateurs québécois et canadiens, c'est un cas test qui ne s'oubliera pas facilement.

Sources

  • Alliance canadienne des travailleurs et travailleuses des télécommunications, communiqué relayé par La Presse, 5 mai 2026 : https://www.lapresse.ca/affaires/2026-05-05/entreprise-de-telecommunications/l-ia-utilisee-pour-masquer-les-accents-etrangers-dans-un-centre-d-appels.php
  • Le Devoir, « Une entreprise canadienne de télécommunications a utilisé l'IA pour masquer les accents étrangers dans un centre d'appels », 5 mai 2026 : https://www.ledevoir.com/actualites/societe/977735/entreprise-utilise-ia-masquer-accents-etrangers-centre-appels
  • Radio-Canada, « L'IA pour changer l'accent d'employés à l'étranger », 5 mai 2026 : https://ici.radio-canada.ca/en-bref/90-16100/ia-centres-appel-accent
  • Commission d'accès à l'information du Québec, mémoire « L'IA au travail : pour un meilleur encadrement », 2024 : https://www.cai.gouv.qc.ca/uploads/pdfs/CAI_ME_Transfo_Travail.pdf
  • Commissariat à la protection de la vie privée du Canada, enquête conjointe sur OpenAI, conclusions du 6 mai 2026 : https://www.priv.gc.ca/en/opc-actions-and-decisions/investigations/investigations-into-businesses/2026/pipeda-2026-002/
  • Radio-Canada, « La stratégie sur l'IA sera dévoilée très prochainement, assure Ottawa », déclarations du ministre Evan Solomon : https://ici.radio-canada.ca/nouvelle/2251416/intelligence-artificielle-strategie-marche-travail

Partager :
FB
Florian Brobst
Fondateur & Directeur

Spécialiste en gouvernance de l’intelligence artificielle, Florian accompagne les organisations dans la mise en place de cadres de gouvernance responsables et conformes aux réglementations émergentes.

Restez informé

Abonnez-vous à notre infolettre pour ne rien manquer.

Nous contacter

Ce site utilise des cookies essentiels et fonctionnels pour améliorer votre expérience. Politique de confidentialité