Essayez l'outil gratuitement

Essayer
Veille6 min de lecture

Stanford AI Index 2026 : 47 pays légifèrent, la transparence chute

Publié le 14 avril 2026, le Stanford AI Index recense 47 pays dotés d'une législation IA active, mais voit l'indice de transparence des modèles de fondation chuter de 58 à 40 sur 100 et les incidents documentés bondir de 55 %.

FB
Florian Brobst
Fondateur & Directeur · 12 mai 2026

Le Stanford AI Index 2026 est le rapport annuel publié le 14 avril 2026 par le Stanford Institute for Human-Centered Artificial Intelligence (HAI). Cette neuvième édition compte 423 pages et documente, dans son chapitre Policy and Governance, trois constats convergents : 47 pays disposent d'une législation IA active en 2025, l'indice de transparence des modèles de fondation chute de 58 à 40 sur 100, et 362 incidents IA ont été documentés sur l'année 2025.

À la mi-mai 2026, le rapport sert déjà de référence chiffrée aux consultations publiques en cours, dont la stratégie nationale canadienne de l'IA présentée par le ministre Evan Solomon le 2 mai 2026 et la directive québécoise sur l'IA dans le secteur public dont l'échéance est fixée à juin 2026. La méthodologie de l'AI Index 2026 combine une revue de 340 propositions législatives, des entrevues avec des régulateurs de 28 pays, et un sondage de 1 200 organisations déployant des systèmes d'IA en production.

Combien de pays disposent d'une législation IA active en 2026 ?

Le chapitre Policy and Governance de l'AI Index 2026 recense 47 pays disposant d'une législation IA active en 2025, contre 36 en 2024. La moitié des stratégies nationales adoptées en 2024 et 2025 viennent d'Afrique subsaharienne, d'Asie centrale et du Moyen-Orient, signe que la régulation IA n'est plus l'apanage des seuls pays de l'OCDE.

L'écart entre l'inscription au journal officiel et l'application effective reste majeur. Sur ces 47 juridictions, seules 23 disposent d'un mécanisme d'application opérationnel, et 12 ont structuré une véritable fonction d'enforcement avec budget et personnel dédiés. Les actions d'application documentées sont passées de 43 en 2024 à 156 en 2025, soit une multiplication par 3,6 en un an (Stanford HAI, AI Index 2026, chapitre Policy and Governance).

Pourquoi l'indice de transparence des modèles chute-t-il de 58 à 40 ?

Le Foundation Model Transparency Index (FMTI), produit par le Stanford Center for Research on Foundation Models, mesure depuis 2023 la transparence de huit développeurs majeurs (OpenAI, Anthropic, Google DeepMind, Meta, xAI, Mistral, Alibaba, Baidu). Sa moyenne est passée de 58 sur 100 en 2024 à 40 sur 100 en 2025, soit un recul de 18 points en un an.

Le rapport identifie trois causes documentées : la sortie de modèles fermés sans publication des spécifications techniques (Mythos d'Anthropic en avril 2026, GPT-5.5 d'OpenAI en décembre 2025), la réduction du contenu des fiches modèles, et la disparition de plusieurs jeux de données d'entraînement publiquement référencés. Cette régression renforce l'argumentaire en faveur de modèles plus petits et plus transparents, défendu notamment par la Banque publique de données québécoise confiée à BAnQ le 8 mai 2026.

Les 5 statistiques clés du rapport 2026 pour la gouvernance IA

  1. 47 pays avec législation IA active en 2025, contre 36 en 2024 (Stanford HAI, AI Index 2026, chapitre Policy and Governance).
  2. 156 actions d'enforcement documentées en 2025, contre 43 en 2024, soit une multiplication par 3,6 en un an (Stanford HAI, AI Index 2026).
  3. 362 incidents IA documentés en 2025, en hausse de 55 % par rapport aux 233 incidents de 2024 ; le moniteur de l'OCDE sur les incidents IA a franchi 435 signalements en janvier 2026 avec une moyenne mobile sur six mois de 326 par mois (OCDE AI Incidents and Hazards Monitor, janvier 2026).
  4. 40 sur 100 : score moyen du Foundation Model Transparency Index en 2025, en recul de 18 points sur un an (Stanford Center for Research on Foundation Models, Transparency Index 2025).
  5. 31 % de confiance chez les répondants américains pour la capacité de leur gouvernement à réguler l'IA, contre 81 % à Singapour et une médiane mondiale de 53 % sur 25 pays sondés par Pew Research en mai 2025 (AI Index 2026, chapitre Public Opinion).

Quelle confiance publique envers la régulation de l'IA selon le rapport ?

Le chapitre Public Opinion de l'AI Index 2026 croise les enquêtes Pew Research (médiane de 25 pays, mai 2025), Edelman Trust Barometer et Ipsos AI Monitor 2025. Deux écarts dominent. Premièrement, l'écart experts/grand public : 76 % des chercheurs et ingénieurs en IA estiment que la technologie aura plus de bénéfices que de risques à dix ans, contre 38 % dans le grand public mondial et 28 % chez les répondants américains.

Deuxièmement, la confiance dans le gouvernement national pour réguler l'IA varie fortement : 81 % à Singapour, 67 % en moyenne dans l'Union européenne, 53 % en médiane mondiale, 31 % seulement aux États-Unis. Aux États-Unis, ce taux est désormais inférieur à la confiance que les répondants américains accordent à l'Union européenne (53 %) pour réguler l'IA efficacement, signal politique fort à l'heure où Washington multiplie les décrets de déréglementation. Pour les régulateurs canadiens, dont la Commission d'accès à l'information (CAI) et l'Autorité des marchés financiers (AMF) avec sa ligne directrice IA d'avril 2026, ces chiffres alimentent l'argumentaire d'une régulation locale active et lisible.

Questions fréquentes

Quand le Stanford AI Index 2026 a-t-il été publié ?

Le Stanford AI Index 2026 a été publié le 14 avril 2026 par le Stanford Institute for Human-Centered Artificial Intelligence (HAI). C'est la neuvième édition annuelle du rapport, qui compte 423 pages réparties en huit chapitres dont un consacré spécifiquement à la politique et à la gouvernance.

Combien de pays ont une législation IA en 2026 selon Stanford ?

Selon le Stanford AI Index 2026, 47 pays disposent d'une législation IA active en 2025, contre 36 en 2024. Cependant, seuls 23 disposent d'un mécanisme d'application opérationnel et 12 ont structuré une véritable fonction d'enforcement, avec une multiplication par 3,6 du nombre d'actions documentées en un an.

Que mesure le Foundation Model Transparency Index ?

Le Foundation Model Transparency Index (FMTI) est un indicateur publié depuis 2023 par le Stanford Center for Research on Foundation Models. Il évalue la transparence de huit grands développeurs de modèles sur 100 critères couvrant données d'entraînement, méthodologie et impacts. En 2025, le score moyen est de 40 sur 100, en recul de 18 points sur un an.

Combien d'incidents IA ont été documentés en 2025 ?

Le Stanford AI Index 2026 recense 362 incidents IA documentés en 2025, contre 233 en 2024, soit une hausse de 55 % en un an. En parallèle, le moniteur de l'OCDE sur les incidents et risques IA a franchi 435 signalements cumulés en janvier 2026, avec une moyenne mobile sur six mois de 326 incidents par mois.

Sources


Partager :
FB
Florian Brobst
Fondateur & Directeur

Spécialiste en gouvernance de l’intelligence artificielle, Florian accompagne les organisations dans la mise en place de cadres de gouvernance responsables et conformes aux réglementations émergentes.

Restez informé

Abonnez-vous à notre infolettre pour ne rien manquer.

Nous contacter

Ce site utilise des cookies essentiels et fonctionnels pour améliorer votre expérience. Politique de confidentialité