IA à l’école : 6 pays, 6 stratégies. Et nous ?
Partout dans le monde, l’IA entre à l’école. Mais au service de quoi — de la performance ou de l’humain ? Enquête comparative en six pays.
⏱️ Temps de lecture : 10 minutes
1« Vanessa, en Chine, ils font déjà de l’IA en primaire ? »
Quand une question d’ado ouvre un vertige géopolitique
« Vanessa, c’est vrai qu’en Chine les enfants apprennent l’intelligence artificielle dès le CP ? Parce que nous, on fait pas ça. »
Cette question, c’est le fils de 13 ans d’un ami qui me l’a posée un dimanche, entre le fromage et le dessert. Je suis restée quelques secondes interdite — non pas parce que l’information était fausse, mais parce qu’elle était à peu près juste. Et qu’elle venait d’un ado, probablement tombé sur un TikTok ou un Reel qui évoquait le sujet.
J’ai répondu avec honnêteté : « Oui, certains pays vont très vite. Non, la France n’est pas immobile. Et non, aller vite ne veut pas forcément dire aller bien. » Mais cette question a continué de m’habiter. Parce qu’elle touche un point sensible : dans la course mondiale à l’IA, où en est l’école française ? Et surtout, que pouvons-nous apprendre — sans complexe ni naïveté — en regardant ce qui se fait ailleurs ?
J’ai voulu comprendre. J’ai choisi six pays aux trajectoires très différentes — la Chine, les Émirats arabes unis, l’Estonie, Singapour, la Finlande et la France — pour observer comment chacun prépare ses élèves à vivre et travailler avec l’IA. Non pas pour établir un palmarès, mais pour poser une question centrale : qui place vraiment l’IA au service de l’humain, et qui risque de faire l’inverse ?
2Six philosophies, un même défi
De l’IA obligatoire en maternelle à la littératie médiatique dès 3 ans
Ce qui frappe d’emblée, c’est la diversité des approches. Certains pays font de l’IA une matière à part entière, d’autres l’intègrent dans le tissu existant des disciplines. Certains misent sur la puissance technologique, d’autres sur l’esprit critique. Voici, en un coup d’œil, ce que chaque pays enseigne à ses élèves.
La Finlande commence à 3 ans par la littératie médiatique. L’Estonie attend 16 ans mais donne accès aux meilleurs outils du marché.
La France est le seul pays à distinguer nettement sensibilisation (sans IA) et usage encadré.
💡 Ce que révèle ce tableau : Aucun pays n’a la même définition de « éduquer à l’IA ». Pour la Chine et les Émirats, c’est une compétence technique à enseigner massivement. Pour la Finlande, c’est une extension de la pensée critique. Pour l’Estonie, un levier d’égalité d’accès. Pour Singapour, un outil de personnalisation pédagogique. Et pour la France ? Un sujet de formation citoyenne… qu’on commence à peine à structurer.
❌ Erreur fréquente : Croire qu’il suffit d’importer un modèle étranger pour « rattraper un retard ». Chaque stratégie reflète une culture politique, un rapport à la technologie, un niveau d’investissement et un contrat social avec les familles. La Chine peut former 2,97 millions d’enseignants parce que son système de gouvernance le permet — pas parce que sa méthode est transposable. Comparer n’est pas copier.
3Former les enseignants : le talon d’Achille universel
On ne peut pas demander aux profs d’enseigner ce qu’on ne leur a jamais appris
Lors de mes formations dans l’académie de Montpellier, je pose systématiquement une question aux enseignants : « Qui parmi vous a reçu une formation institutionnelle à l’IA ? » En général, deux ou trois mains se lèvent timidement — souvent des collègues qui se sont autoformés sur leur temps personnel. Ce constat n’est pas anecdotique : en France, moins de 20 % des enseignants utilisent régulièrement l’IA dans leur pratique professionnelle (MENJ, février 2025), et 80 % déclarent n’avoir reçu aucune formation à l’IA (GoStudent/Opinium, enquête nov. 2024) — l’un des taux les plus élevés en Europe. Et nous ne sommes pas seuls.
La formation des enseignants est le défi qui transcende toutes les frontières. Mais les moyens déployés varient considérablement.
La Chine a engagé un effort massif : entre 2018 et 2024, ses deux programmes pilotes déployés dans 103 villes ont permis de former plus de 2,97 millions d’enseignants à la littératie IA et de développer plus de 700 outils numériques dédiés. Un chiffre qui donne le vertige quand on le rapporte aux quelques milliers de profs français ayant passé les tests Pix+Edu.
« J’ai demandé à ChatGPT de me générer un exercice de grammaire. C’était impeccable. Et puis je me suis demandé : est-ce que je suis en train de devenir inutile, ou est-ce que je viens de gagner 45 minutes pour mieux accompagner mes élèves en difficulté ? » — Une enseignante de CM2, formation IA académie de Montpellier, 2025
« Le vrai problème, ce n’est pas l’outil. C’est qu’on me demande de « faire de l’IA » sans jamais me demander ce que j’en pense, ni ce que j’en attends pour mes élèves. » — Un professeur de technologie en collège, 2025
L’Estonie joue une carte différente : plutôt que de former en masse, elle forme en profondeur. Les 3 000 enseignants de la phase 1 d’AI Leap bénéficient d’un accompagnement structuré — formations en ligne, séminaires, communautés d’apprentissage locales — avant même que les élèves n’accèdent aux outils. Comme le résume le cofondateur du programme, Linnar Viik : « L’avenir ne sera pas défini par qui utilise le plus l’IA, mais par qui l’utilise le plus intelligemment. » L’Estonie pousse la réflexion jusqu’à questionner les formats d’évaluation eux-mêmes : le débat porte déjà sur la fin des dissertations classiques au profit de l’oral et de l’auto-évaluation — afin d’éviter que l’IA ne rende ces épreuves obsolètes. Un sujet qui résonnera chez beaucoup d’enseignants français…
💡 En clair : la question n’est pas « combien d’enseignants formés ? » mais « formés à quoi, comment et avec quel suivi ? ». L’outil sans la pédagogie n’est qu’un gadget coûteux.
Singapour a fait le choix d’outiller directement ses enseignants via la plateforme nationale SLS, avec des outils prêts à l’emploi : l’Authoring Copilot génère des séquences pédagogiques alignées sur le curriculum, le Short Answer Feedback Assistant automatise les retours sur les copies. L’IA soulage les enseignants avant de leur demander de l’enseigner. Mais la cité-État va plus loin : depuis 2025, le National Institute of Education (NIE) propose des certificats universitaires « AI for Education » qui couvrent la théorie, les biais, l’éthique et les pratiques pédagogiques responsables. L’objectif affiché : que tous les futurs enseignants singapouriens reçoivent une formation IA d’ici 2026.
❌ L’erreur à ne pas commettre : Croire qu’il suffit de mettre un outil IA dans les mains d’un enseignant pour que la transformation opère. Sans formation pédagogique à l’IA — pas seulement technique, mais didactique — on crée une génération d’élèves « augmentés » encadrés par des enseignants démunis. L’UNESCO le dit clairement : les enseignants ne peuvent pas être remplacés par des machines, mais ils ne peuvent pas non plus ignorer ces machines.
4Éthique et données : des garde-fous très inégaux
Entre surveillance algorithmique et transparence démocratique
C’est sans doute l’axe qui révèle le plus crûment les différences de valeurs entre les modèles. Derrière la question « comment protège-t-on les données des élèves ? » se cachent des visions du monde radicalement opposées.
🇨🇳 Chine : contrôle ciblé et « liste blanche »
La Chine assume une approche de contrôle ciblé : elle interdit aux élèves du primaire d’utiliser la génération de contenu ouvert, elle interdit aux enseignants de substituer l’IA à leurs responsabilités pédagogiques fondamentales… mais elle déploie par ailleurs des plateformes massives de collecte de données comportementales. Des bandeaux EEG ont été testés en classe pour mesurer l’attention des élèves — un usage qui, même suspendu temporairement, illustre une frontière éthique que les démocraties européennes ne franchiraient pas. Autre particularité : les écoles chinoises ne peuvent utiliser que des outils figurant sur une « liste blanche » nationale approuvée. Ces modèles doivent avoir passé des tests de conformité aux « valeurs socialistes fondamentales » — un chatbot éducatif en Chine doit être pédagogiquement correct et politiquement aligné.
💡 Le saviez-vous ? En Chine, un chatbot éducatif doit non seulement être pédagogiquement fiable, mais aussi passer un test de conformité aux « valeurs socialistes fondamentales » avant d’être autorisé en classe. L’IA scolaire est un outil d’État, pas un outil neutre.
🇫🇮 Finlande & 🇸🇬 Singapour : la transparence comme prérequis
À l’opposé, la Finlande place la transparence algorithmique au cœur de son système. Le programme national AuroraAI exige que tous les outils IA utilisés en éducation expliquent leurs décisions en langage compréhensible. Les recommandations publiées en 2025 par l’Agence nationale de l’éducation insistent sur un prérequis : avant d’utiliser l’IA en classe, il faut s’assurer que les utilisateurs — enseignants comme élèves — ont la capacité d’interpréter et d’évaluer de manière critique l’information générée.
Singapour a formalisé cette exigence dans un cadre éthique dédié à l’éducation (AI-in-Education Ethics Framework, 2024), articulé autour de quatre principes : agentivité (agency), inclusivité, équité et sécurité. Les données des élèves mineurs font l’objet d’un traitement renforcé : consentement parental obligatoire en dessous de 13 ans, limitation de la géolocalisation, durée de conservation encadrée.
✅ Le réflexe finlandais à adopter : Avant de déployer un outil IA en classe, vérifier que les utilisateurs — enseignants comme élèves — sont capables d’interpréter et de critiquer ses résultats. L’IA n’est pas un oracle, c’est un objet de questionnement.
🇦🇪 Émirats & 🇯🇵 Japon : deux voies, un même pari sur l’éducation
Les Émirats misent sur un curriculum qui intègre l’éthique comme l’un de ses sept piliers : les élèves apprennent à identifier les biais algorithmiques, les enjeux de plagiat, les questions de responsabilité. Un choix ambitieux pour un pays où la gouvernance des données ne suit pas les mêmes standards que l’UE.
Le Japon incarne la prudence assumée. Son ministère recommande aux enseignants de montrer aux élèves des réponses erronées produites par l’IA avant de leur en confier l’usage. Les nouvelles directives élargissent prudemment l’usage de l’IA générative — notamment pour la pratique de l’anglais oral — tout en insistant sur le distinguo vrai/faux et la préservation de la créativité. Depuis 2025, un cadre législatif complet s’est mis en place (AI Promotion Act, plan fondamental IA national — voir sources NCEE), et un programme national a formé environ 50 000 enseignants via des partenariats public-privé. Malgré cette mobilisation, 58 % des professeurs se déclarent encore insuffisamment préparés.
💡 À retenir sur l’éthique : Tous les pays s’accordent sur un point — l’IA ne doit jamais décider seule du sort d’un élève. Mais leurs réponses divergent : transparence algorithmique (Finlande), cadre éthique formalisé (Singapour), liste blanche nationale (Chine), éthique intégrée au curriculum (Émirats), doute méthodique (Japon). L’enjeu n’est pas technique, il est politique.
✅ Piste prometteuse : Malgré leurs différences, un consensus émerge entre tous les pays étudiés : l’éducation à l’IA ne peut se réduire à un apprentissage technique. La dimension éthique — biais, données personnelles, impact environnemental, rapport à la vérité — doit être intégrée dès le départ. C’est ce que nous avions déjà observé dans notre article sur la désinformation à l’ère de l’IA : la pensée critique n’est pas un module à ajouter, c’est un prérequis.
✅ Le bon réflexe à partager avec les parents : Quel que soit le pays, un principe émerge comme universel : l’IA ne doit jamais prendre de décision à fort enjeu sur un élève (orientation, sanction, évaluation déterminante) sans intervention humaine. C’est ce que l’AI Act européen (entré en vigueur en 2024) impose juridiquement, et ce que l’UNESCO recommande depuis le Consensus de Beijing (2019). Si votre enfant utilise un outil IA à l’école, posez la question : « Qui décide, l’algorithme ou l’enseignant ? »
Ce positionnement est indicatif et reflète les tendances dominantes de chaque stratégie nationale, pas un classement de valeur.
5Et la France dans tout ça ?
Ni en avance ni en retard, mais à la croisée des chemins
Je ne vais pas mentir : en commençant cette recherche, je m’attendais à écrire un article sévère sur le « retard français ». Mais la réalité est plus nuancée — et, osons le mot, plus encourageante que ce que le discours ambiant laisse penser.
La France dispose de plusieurs atouts structurels que beaucoup de pays nous envient. D’abord, un cadre réglementaire solide : le cadre d’usage de l’IA en éducation, publié le 14 juin 2025 après une consultation nationale, est un document ambitieux qui couvre aussi bien les usages pédagogiques qu’administratifs. Ce cadre pose une distinction que peu de pays assument aussi nettement : à l’école primaire, l’IA générative est interdite. Les élèves sont sensibilisés aux concepts (algorithme, données, biais), mais il leur est interdit de manipuler directement des services génératifs. L’objectif : protéger l’acquisition des savoirs fondamentaux — lire, écrire, compter — contre une automatisation précoce qui pourrait court-circuiter l’effort cognitif. L’IA est un objet de discussion, pas encore un outil de production. Ce n’est qu’à partir de la 4e (13 ans) que l’usage encadré est autorisé.
Ensuite, un outil de certification unique en Europe : Pix, désormais étendu à un parcours IA spécifique — prompting, fonctionnement des LLM, deepfakes, biais, enjeux environnementaux — qui deviendra obligatoire pour tous les élèves de 4e et de 2de à la rentrée 2026.
Autre singularité française, et peut-être la plus surprenante : la sobriété numérique comme critère pédagogique. Les directives demandent explicitement aux enseignants de « renoncer à l’IA si une autre solution moins coûteuse écologiquement peut répondre au besoin ». L’IA y est présentée comme une ressource rare et polluante — consommation d’eau et d’énergie des data centers — qui ne doit être mobilisée que si sa plus-value pédagogique est supérieure à son coût environnemental. Dans le paysage mondial, aucun autre pays ne lie aussi explicitement IA et écologie dans ses directives éducatives.
Ajoutons le projet européen AI4T (Erasmus+), qui a permis de former des enseignants de cinq pays à l’IA pédagogique, et l’appel à projets de 20 millions d’euros (France 2030) pour développer une IA souveraine dédiée aux enseignants, disponible dès 2026-2027. Point notable : le cadre d’usage français pose aussi un interdit clair — l’utilisation de l’IA générative pour réaliser des devoirs sans appropriation personnelle est explicitement considérée comme une fraude. Cette position tranchée — que nous avions analysée en détail dans notre article « Notes dopées, pensée bridée ? » — a des conséquences concrètes sur le terrain : dévalorisation des devoirs maison dans la moyenne finale, retour en force de l’évaluation manuscrite sur table — le fameux « retour du papier-crayon » — et valorisation de l’oral et de la justification du raisonnement plutôt que du résultat final.
💬 Ce qui manque encore : La France excelle dans la conception de cadres. Mais entre le cadre et la salle de classe, il y a un couloir que beaucoup d’enseignants traversent seuls. Côté élèves, le constat est tout aussi rude : seuls 24 % des élèves français ont accès à des outils IA à l’école, contre 44 % en Italie et 36 % en Allemagne (étude GoStudent 2025). Là où la Chine forme 2,97 millions de profs, là où l’Estonie négocie directement avec OpenAI, Anthropic et Google pour offrir l’accès gratuit aux outils les plus avancés, la France peine encore à transformer ses prescriptions en accompagnement concret. Le parcours Pix IA est une avancée majeure, mais 30 minutes à 1h30 de microlearning suffiront-elles à outiller une génération face à un bouleversement aussi profond ?
⚠️ Le « moment coréen » — quand la technologie se fracasse sur le réel
En contrepoint de ces six stratégies, un septième pays mérite d’être mentionné : la Corée du Sud. En 2024, le gouvernement a lancé le projet éducatif le plus ambitieux au monde : remplacer tous les manuels scolaires par des « AI Digital Textbooks » (AIDT), avec un budget de 360 millions d’euros pour la seule année 2024. L’objectif : un tuteur IA personnalisé 24h/24 pour chaque élève dès mars 2025.
Mais la fronde a été violente. Les parents, inquiets de l’addiction aux écrans et du développement cérébral de leurs enfants, ont massivement rejeté le projet. Les enseignants ont dénoncé une surcharge technique et le risque de voir leur métier réduit à la gestion de tablettes. Le 4 août 2025, l’Assemblée nationale a voté une loi retirant aux AIDT leur statut de « matériel pédagogique officiel » pour les reclasser comme simple « matériel de soutien » volontaire.
💡 La leçon : Une technologie, même performante et massivement financée, ne peut être imposée contre la volonté des familles et du corps enseignant. La « fracture d’acceptabilité sociale » est plus dangereuse que la fracture numérique. C’est peut-être le signal d’alerte le plus précieux pour tous les pays qui s’apprêtent à accélérer.
6Comparer pour avancer, pas pour se flageller
Ce que le voyage nous apprend sur nous-mêmes
En parcourant ces modèles, une évidence s’impose : il n’existe pas de « bonne » stratégie universelle pour enseigner l’IA à l’école. Chaque pays fait des choix qui reflètent son histoire, ses valeurs et ses ambitions. La Chine mise sur la puissance et le contrôle. Les Émirats sur la vitesse et l’investissement. L’Estonie sur l’agilité et la confiance dans le numérique. Singapour sur la personnalisation et la rigueur éthique. La Finlande sur l’esprit critique et la transparence. Le Japon sur la prudence et le doute méthodique. La France sur l’encadrement réglementaire et la souveraineté.
Mais un fil rouge traverse toutes ces expériences : aucun pays n’a résolu l’équation de la formation enseignante. Aucun n’a trouvé le point d’équilibre parfait entre innovation technologique et protection de l’enfance. Aucun ne peut garantir que sa stratégie produira, dans dix ans, des citoyens plus lucides, plus créatifs et plus libres que les autres.
Et c’est peut-être là que réside la vraie question — celle que je retiens du déjeuner dominical avec cet ado de 13 ans : ce n’est pas « qui va le plus vite ? » mais « qui prépare le mieux ses enfants à penser par eux-mêmes dans un monde saturé d’algorithmes ? »
✅ Le mouvement est mondial : Au-delà des six pays de cet article, la dynamique s’accélère partout. Le Royaume-Uni a publié en 2025 des directives autorisant les enseignants à utiliser l’IA pour préparer leurs cours et évaluer, en investissant 185 millions de livres pour former 7,5 millions de travailleurs à l’IA d’ici 2030. L’Australie a adopté un Australian Framework for Generative AI in Schools intégré à son plan national IA 2025. Les États-Unis ont signé un décret présidentiel en avril 2025 créant un groupe de travail fédéral sur l’éducation à l’IA, avec 60 organisations engagées. Et l’Union européenne a publié en mai 2025, avec l’OCDE et Code.org, un projet de référentiel de 22 compétences en « AI literacy » réparties en quatre domaines, en consultation publique avant une adoption prévue en 2026. Selon l’Académie chinoise des sciences de l’éducation, 55,6 % des nations développent désormais des programmes d’éducation à l’IA. La question n’est plus « faut-il enseigner l’IA ? » — c’est « comment, à quel âge, et avec quels garde-fous ? ».
À nous, enseignants, parents, citoyens, de transformer cette invitation en actes. Car la ligne de partage entre les pays qui réussiront et ceux qui échoueront ne sera pas technologique — elle sera humaine. L’IA au service de l’humain, ou l’humain au service de l’IA : c’est le choix que chaque système éducatif est en train de faire, consciemment ou non. En regardant ce que font les autres — sans complexe, sans naïveté — nous pouvons encore choisir notre camp.
💡 L’IA au service de l’humain, c’est une école qui forme des citoyens capables de penser, de douter et de choisir — pas des utilisateurs dociles d’outils qu’ils ne comprennent pas.
🎯 L’essentiel en 8 points
- La Chine et les Émirats rendent l’IA obligatoire de la maternelle au lycée dès la rentrée 2025 — une première mondiale
- L’Estonie (AI Leap) est le premier pays à offrir un accès national gratuit à ChatGPT Edu, Anthropic et Google — en janvier 2026, 100+ lycées sur 154 sont déjà équipés
- La Finlande reste fidèle à son ADN : pas de matière IA dédiée, mais une littératie critique intégrée dès l’âge de 3 ans
- Singapour déploie des outils IA adaptatifs (SLS) et impose un certificat universitaire IA pour tous les futurs enseignants d’ici 2026
- Le Japon a formé 50 000 enseignants à l’IA via son AI Education Accelerator et adopté un AI Promotion Act, mais choisit la prudence : montrer aux élèves les erreurs de l’IA avant de leur en confier l’usage
- La France interdit l’IA générative en primaire, intègre la sobriété numérique dans ses directives et généralise le parcours Pix IA (obligatoire en 4e et 2de à la rentrée 2026)
- La Corée du Sud rappelle qu’une technologie, même massivement financée (360 M€), ne peut être imposée contre la volonté des familles
- Le défi universel : la formation des enseignants reste le maillon faible dans tous les pays étudiés
🚀 Que pouvons-nous faire dès maintenant ?
En équipe pédagogique : Organiser un « café IA » entre collègues pour tester ensemble le parcours Pix IA — 30 min à 1h30, gratuit, accessible à tous. En discuter, c’est déjà se former.
En conseil d’école : Inscrire un point « IA et éducation » à l’ordre du jour. Trois questions à poser : les outils IA utilisés à l’école respectent-ils le RGPD ? Où tracer la ligne entre aide et substitution ? Qui accompagne les élèves si 80 % des enseignants ne sont pas formés ?
En famille : Demander à votre enfant de vous montrer comment il utilise l’IA pour ses devoirs — sans juger, en observant. Puis poser une question simple : « Comment sais-tu que cette réponse est fiable ? » C’est le début de l’esprit critique.
En formation : Explorer le manuel ouvert « IA pour les enseignants » (projet AI4T/Erasmus+, gratuit, en français) — une ressource concrète pour aller au-delà du discours.
— Vanessa Le Scolan-Nguyen, enseignante & ERUN | maprofbranchee.fr
📚 Sources et références
- Ministère de l’Éducation nationale (France) — Cadre d’usage de l’IA en éducation (14 juin 2025) ; Généralisation du parcours Pix IA (30 janvier 2026) ; Création du comité d’anticipation en éducation (30 janvier 2026). education.gouv.fr
- Ministry of Education, China — Guidelines for AI General Education in Primary and Secondary Schools (mai 2025) ; Guidelines for the Use of Generative AI (2025). english.scio.gov.cn
- UAE Ministry of Education — AI mandatory curriculum K-12 (Cabinet, 4 mai 2025). Sources : Gulf News, unite.ai
- e-Estonia / AI Leap Foundation — AI Leap 2025 programme (mars 2025). e-estonia.com
- Ministry of Education, Singapore — EdTech Masterplan 2030 ; AI-in-Education Ethics Framework (2024) ; Student Learning Space. moe.gov.sg
- Finnish National Agency for Education (OPH) — AI in Education: Legislation and Recommendations (2025). oph.fi
- Ministry of Education, Japan (MEXT) / Digital Agency — Digital Education Roadmap (Digital Agency, 2025) ; Guidelines on the Use of Generative AI in Primary and Secondary Education, ver. 2.0 (MEXT, déc. 2024 / publié 2025) ; AI Promotion Act (mai 2025) ; Premier plan fondamental IA (Cabinet, déc. 2025). Sources : NCEE, News On Japan (NHK)
- UNESCO — Consensus de Beijing sur l’IA et l’éducation (2019) ; Orientations sur l’IA générative en éducation et recherche (2023)
- DANE-DNE / MENJ — Brochure « IA et éducation : apports de la recherche et enjeux pour les politiques publiques » (2024)
- Commission de l’IA — Rapport « IA : notre ambition pour la France » (2024). Recommandation n°6 et n°11
- Projet AI4T (Erasmus+) — Manuel ouvert « IA pour les enseignants ». pressbooks.pub
- Pix / News Tank — Généralisation de la formation Pix IA, interview B. Marteau (sept. 2025). education.newstank.fr
- Euronews — « After decades of teaching media literacy, Finland equips students with skills to spot AI deepfakes » (janv. 2026)
- World Education Blog / GEM Report — « China is embracing AI in education. How are principals coping? » (sept. 2025)
- Eurydice / Commission européenne — Estonia: National reforms in general school education (2025)
- The Guardian — « Estonia eschews phone bans in schools and takes leap into AI » (mai 2025). theguardian.com
- National Institute of Education (NIE), Singapour — Certificate in AI for Education (ILA1002, ILA1003). ntu.edu.sg
- The Straits Times — « NIE to train teachers in using AI in classroom, invest in research » (2025). straitstimes.com
- The Korea Herald — « South Korea pulls plug on AI textbooks » (août 2025) — Revirement législatif sur les AIDT. koreaherald.com
- Rest of World — « South Korea’s AI textbooks fail after rushed rollout » (oct. 2025). restofworld.org
- Executive Order (USA) — Advancing Artificial Intelligence Education for American Youth (23 avril 2025). whitehouse.gov
- People’s Daily Online — « Chinese schools embrace AI for smarter learning » (juil. 2025)
- Ministère de l’Éducation nationale (France) — « IA au service de l’éducation : des mesures ambitieuses » (7 février 2025). education.gouv.fr
- GoStudent — Étude sur l’éducation du futur 2025 : statistiques IA et éducation en France (nov. 2025). gostudent.org
- Ministère de l’Éducation nationale (France) — Cadre d’usage de l’IA en éducation (14 juin 2025). education.gouv.fr
- UK Department for Education — AI in schools and colleges: what you need to know (2025) ; AI education strategy (£185M, juin 2025)
- Australian Government — Australian Framework for Generative AI in Schools ; National AI Plan 2025
- Commission européenne / OCDE / Code.org — Draft AI Literacy Framework for Primary and Secondary Education (mai 2025, 22 compétences, 4 domaines)
- China National Academy of Educational Sciences (CNAES) — Global Digital Education Index 2025 : données comparatives « AI + Education » (72 pays)